Этого треда уже нет.
Это копия, сохраненная 1 августа 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
НЕЙРОНОЧКИ И МАШОБ ТРЕД №39 /ai/ 2078573 В конец треда | Веб
Очередной тред про хипстерские технологии, которые не работают

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/

Почему python?
Исторически сложилось

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет

Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" - на русском, есть примеры, но меньше охват материала
Франсуа Шолле - Глубокое обучение на Python
https://d2l.ai/index.html

В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся

Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai/

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь

Когда уже изобретут AI и он нас всех поработит?
На текущем железе - никогда, тред не об этом

Кто нибудь использовал машоб для трейдинга?
Никто не использовал, ты первый такое придумал. Готовь камаз для бабла.

Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Предыдущий:
https://2ch.hk/pr/res/2042522.html (М)

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке.
2 2078585
>>078573 (OP)
Что на втором пике, дали по рукам за фантазии о чистой любви?
3 2078595
>>078573 (OP)

>смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229


>линейная алгебра, теорвер, матстат, базовый матан и matrix calculus


Хватит пиздеть уже.
Вы просто дрочите параметры в готовых сеточках и нихуя больше не делаете.
4 2078598
>>078595
Не пали нас чел. Тебя уебать с левой нейронки или с правой, если ты не умеешь в ати
у меня в голове было видео с двумя дедушками, один из них меня бил, второй заступался. Я бы мог за них вступится, но...
И я бы не смог. Ни при каком раскладе.
5 2078609
>>078585
ai-dungeon. Порнуха там особо не запрещена, но есть ML-фильтр, который блокирует ответы нейросетки, если их можно расценить как explicit content с участием несовершеннолетних. Т.е. если ты в затравке напишешь, что твоя 16-летняя подружка-котодевочка сегодня надела полупрозрачные трусики, то просто не получишь ответа. Однако настоящий датасантист всегда найдёт способ довести нейросетку до оргазма правда за этим всё равно последют пиздюли уже от модераторов-людей
6 2078613
>>078595
Лень чистить шапку. Да и пофиг.
7 2078614
>>078598

>Не пали нас чел


У меня просто подгорело с вашей шапки.
Я сначала как дебил пошел читать по ссылочкам типа www.deeplearningbook.org и только потом понял, что это все наглый пиздеж и в реале никто сейчас не пишет сам эти сетки.
8 2078621
Есть люди, знакомые с JAX? На нём можно писать модели для прода или он только для ресерча?
Если можно, то как там ускоряют инференс, а то никаких простых способов перегона в onnx там не обнаружено.
9 2078628
>>078621
Не знаю ничего про JAX, но если бы ты видел, на чем написаны модели в Сбере, то понял, что писать их можно хоть на сперме дракона. Потому что если модель начинает приносить реальные деньги, уже никого не ебёт, на чём написана, будут хоть вручную из ноутбука запускать.
10 2078661
>>078595
Даже этого не делаем, берём готовое с гитхаба или каггла и прикручиваем себе
11 2078701
>>078621
Про прод хуй его знает, я не юрист, но вот те же елузеры ускорили инференс через сжатие вершин в bf16, это + отбрасывание оптимизатора их модели дало сокращение веса почти в 8 раз, и как пишут в статейках ускорило выполнение на tpu. Но если это меньше весит и работает быстрее там, то думаю и на обычном gpu это будет быстрее.
12 2078723
Освятил богиней.
https://www.youtube.com/watch?v=WKn0Oxb5RX0
13 2078835
>>078609
Понятно. Я в ai dungeon тыкал палочкой, но до такого не доходил
14 2078847
Котаны, какие есть еще методы обучения ИНС кроме backpropagation?
15 2078883
>>078609
Такой же фильтр будет в будущем в сетках типа далле, чтобы ЦП не рисовали.
16 2078884
>>078847
Случайный поиск. Где-то даже использовался, но модифицированный и для неглубоких перцептронов.
17 2078920
>>078883
Он же уже есть даже в cogview, в веб демке он просто не начинает рисовать, а в колабе он рисует крайне плохо так как сразу видно что либо датасет чистили вилкой, либо хотсинг картинок откуда собирали датасет изначально цп не пропускал. Алсо если выполнять локально то никаких проблем нет, стер строчку кода отвечающую за фильтр, зафайнтюнил на твоей коллекции у меня ее нет, т-щ, майор и все. Ну и опять же, если гугл колаб не закроется к тому времени когда полностью смогут использовать тпу и допилят светящийся путорч то у каждого будет возможность тренировать на 64 видеогигах.
18 2078932
>>078884
Кинь ссылку на статейку.
>>078847
Котаны, сразу пишите английское название, по которому можно нагуглить, или ссылку на статью.
19 2078938
>>078920

>cogview


>man on bicycle


>Модель, созданная CogView, поддерживает только упрощенный ввод на китайском языке.


>google translate -> 人的自行车


>Человеческий велосипед



Сука, мне теперь даже страшно страницу открывать, чтобы посмотреть, что она там сгенерировала...
20 2078942
>>078932

>Кинь ссылку на статейку.


Сорян, наебал. Открыл статью, а там линейная модель. Получается, китаец с медиума меня обманул.
21 2078957
>>078938
Все не настолько плохо же, нужно просто вбить правильный перевод.
22 2078999
GPT-3 уже прошла тютюринг тест?
23 2079058
>>078999
Ну как сказать. GPT-3 - это бредогенератор. Там в принципе нет такой опции, как "поговорить" с нейросетью. Она берёт последовательность токенов и пытается её продолжить. Я взял затравку отсюда https://lacker.io/ai/2020/07/06/giving-gpt-3-a-turing-test.html и вот что получилось.

Цимес в том, что из-за большой длинны ответа, она иногда сама начинает задавать себе вопросы и отвечать на них. Я пометил желтым как она сама с собой "разговаривает".

Думаю, если прикрутить к ней её что-нибудь, что позволило бы ей понимать, сколько токенов возвращать в зависимости от контекста, она вполне бы смогла наебать неподготовленного человека.

Тесты, которые она генерирует, почти неотличимы от сгенерированных человеком. Их можно определить только по потере контекста и логическим ошибкам. Например, когда я ебу одновременно двух котодевочек, она "забывает", в которой из них мой член в данный момент.

Ну и обучения там в нормальном смысле тоже нет. Есть текстовый контекст, когда он становится слишком большим, сеть не может делать из него сложных выводов. Например, она не может понять, что эту котодевочку я уже ебал, котодевочка может внезапно стать моей сестрой, одна котодевочка может вдруг назвать другую котодевочку шлюхой, хотя минуту назад по контексту они были подружками.

Поэтому если человек знает, что спрашивать, он очень быстро поймёт, что общается с цепью Маркова на стеройдах. Или, по крайней мере, с человеком, прикивающимся цепью Маркова.
24 2079090
>>079058

>общается с цепью Маркова на стеройдах


Человек такая же цепь маркова на стероидах.
25 2079157
>>079058
Есть же такая штука как стоп токены, и думаю очевидно что если там указать что "Q:" это стоп токен а потом показать все кроме двух последних символов, то все будет заебись.
Ну и забывчивость в первую очередь потому что каждая модель трансформеров имеет свою заданную при создании длину в токенах, и когда текст меньше этой длины остаток заполняется нулями. Ну и очевидно что когда текст превышает длину модели то контекст старается. Есть костыль, например в gpt-j, что при превышении длины начало выводится, но не передается нейронке, а если ей сказали генерировать больше ее длины то она сама каждый раз в цикле генерирует обрезая контекст и вставляя сгенерированный текст в контекст. Но это лишь костыль, контекст улетит еще дальше.
Есть еще костыль с тренировкой на сжатом вокабе, то есть вместо какого то слова там китайский символ который в единственном экземпляре весит меньше последовательности обычных. Но там все так же теряется контекст.

В общем нужны либо нейронки с большим контекстом (а больший контекст увеличивает количество параметров 1 к 1 или примерно так, а так же требует больше памяти, то есть две модели с разными конфигами и одним числом параметров если у одной число параметров больше из за длины, то она будет жрать в раза 2 больше памяти).
Либо новая архитектура или хотя бы костыль. В принципе подошло бы и усреднение контекста при превышении но это ещё никто не запилил.
26 2079173
>>079090

> горькие петухи такие же цепи маркова на стероидах


Не благодари
1624543672827.jpg18 Кб, 220x352
27 2079185
>>079173
Петух тут только ты.
мимо-Горький
31592135.png27 Кб, 360x256
28 2079243
>>079185

>Петух тут только ты.

29 2079342
>>079058

>эту котодевочку я уже ебал, котодевочка может внезапно стать моей сестрой


Не увидел противоречий

>одна котодевочка может вдруг назвать другую котодевочку шлюхой, хотя минуту назад по контексту они были подружками.


Аналогично.
30 2079456
>>078609
ну они и мудаки. я про модеров
31 2079461
>>079456
ПовестОчка же. Либо авторы идут на бутылку за распространение оригинального запрещенного контента, авторство которого скорее всего закрепят за авторами, либо заклеивают очко и избегают всех рисков.
Кстати поэтому деловому пепе привет, остальным соболезную нейросети и должны быть открытыми и заточенными под локальное выполнение ведь распространение через интернет цп это статья, а хранение для личного пользования уже совсем другая но все же статья.
32 2079469
>>079157

>В общем нужны либо нейронки с большим контекстом (а больший контекст увеличивает количество параметров 1 к 1 или примерно так, а так же требует больше памяти, то есть две модели с разными конфигами и одним числом параметров если у одной число параметров больше из за длины, то она будет жрать в раза 2 больше памяти).


Это что бы даже у гигантов типа гугла с мелкомягкими вычислительных мощностей перестало хватать?
33 2079470
>>079469
>>079157

> Либо новая архитектура или хотя бы костыль. В принципе подошло бы и усреднение контекста при превышении но это ещё никто не запилил.



да
34 2079484
Анастасия Никулина: Кластеризация в маркетинговом анализе на примере cookies
https://www.youtube.com/watch?v=J-dlntUtlbQ

1) Какая связь между примерами в начале (вроде - давайте разделим пользователей на богатых и бедных и богатым будем показывать рекламу люксовых тачек а нищукам показывать тачки попроще) со всей последующей ебаниной про кластеры?

2) Так что получается любой сайт может прошерстить все мои куки и узнать все-все про меня? Не ну нахуй такого не может быть, должны же быть какие то ограничения по любому.
35 2079498
>>079484
А ты что, не отключил куки через umatrix?
36 2079563
>>079157

>Есть же такая штука как стоп токены


Алгоритм. Человек легко наебёт любой алгоритм, если поймёт его принцип действия. Попросит нейросеть выдавать ответы без Q: и A: и алгоритм сломается.

В том то вся и фишка, что один человек изобретает алгоритм, а другой человек его разгадывает. Но сам по себе алгоритм ничего не может создать. А человек, пусть хуёво, но создаёт. Даже пчела может создавать и адаптироваться.

Мне кажется, что основная проблема в том, что алгоритмы не живут в нашем мире. А пчелы и C.Elegans и прочие живут. Многим вообще не нужны нейроны, чтобы действовать разумно. Ну разве не разумно действут какие-нибудь вирусы, разве не разумен C.Elegans с его 300-ми нейронами?

Чтобы разгадать загадку разума, надо сначала разгадать загадку жизни. Разум следует из жизни, разум лишь производная нашего существования.
37 2079564
>>079456
Они следуют повесточке Маска "too dangerous to release". И я с ними согласен. Есть novelai. Там нет модерации, я купил их премиум-аккаунт и погонял их сеть. Но блядь, это небо и земля. GPT-3 - реально как живая. Я иногда её пугаюсь, мне кажется, что я не цифровых котодевочек ебу, а разговариваю с реальным человеком. Ну совсем иногда, но бывает. Они - лидеры, они могут диктовать свои условия. Если не нравится, сделай свой трансформер. Пока у остальных не получилось.
16235344398000.jpg185 Кб, 447x599
38 2079567
>>079563
Раз зумера библиотеку изобрели, может быть и до бихевиоризма додумаются. До RFT точно не додумаются
39 2079584
>>079564

> кудахтахтах как жевая но мы вам не покажем


Да-да ага-ага
Пока вижу только улучшенные вариации марковских цепей, но у ЛИДЕРОВ разумеется есть ИНОПЛАНЕТНЫЕ ТЕХНОЛОГИИ
40 2079604
>>079564

> Пока у остальных не получилось.


У чингчонгов получилось. Wudao2 1775В в 10+ раз больше гпт3. Но те точно никому не дадут, даже за деньги, им ГУЛАГ важнее бабла.
41 2079609
>>079563
Уносите этого античного философа. Ты хоть в открытую про Космос говори что ли.
Хотя проблема нейросетей в размере мира действительно есть, что их взаимодействие в нем, что сам мир, сильно ограничены. Есть rl который довольно неплохо решает эту проблему но взаимодействие все еще ограничено, даже если подрубить его к физическому робопсу, все что он сможет сделать это научиться ходить и паре других трюков. Он не сможет научиться говорить или читать в рамках этого алгоритма. Можно подрубить другой алгоритм, обычно так и делают к слову, но как по мне это самый что ни на есть костыль от которого стоит избавиться как можно скорее вель он стопорит прогресс создания полноценного алгоритма с несколькими нейросетями с сильной взаимосвязью и непрерывной обучаемостью.
Ну и да, rl крайне медленный и требовательный и думаю очевидно что на примере робопса его агент будет управляться через сервер.
42 2079619
>>079609

> Он не сможет научиться говорить или читать в рамках этого алгоритма.


Животные тоже не умеют читать и говорить, причем, без всяких алгоритмов. Гпт это более продвинутый ии, чем животные, потому что даже с обезьяной ты хуй поговоришь, а уж читать она никогда не сможет, а гпт в человеческий язык таки может, хоть и хреновато, но то такое. Даже самая продвинутая обезьяна не может в Winograd schema challenge, а трансформеры могут, хотя по параметрам (нейроны, связи, веса) несравнимы даже с тараканом, про обезьяну и говорить нечего, у них мозги на многие порядки сложнее гпт. Это я к тому, что сравнивать количество нейронов в мозгу с количеством параметров трансформера для оценки того, сможет ли он эмулировать мозг, изначально неправильно. Я бы предложил сравнивать именно поведенческие возможности алгоритмов (может ли алгоритм в эмуляцию оперантов, особенно обобщенных - arbitrary applicable relational response). Животные совсем не могут, это медицинский факт, человек может, трансформеры внезапно тоже могут, но очень плохо, даже у gpt-j-6B эта возможность в зачаточном состоянии. Гпт3 скорее всего может намного лучше, может быть даже на уровне калмуниста, wudao2 скорее всего уже где-то близко к нормальной личинке человека, хотя это только моё предположение, конечно.
43 2079625
>>079619
Тут же все просто, сейчас абсолютно все нейронки моделируют одну конкретную задачу - гпт писать текст, всякие ганы - генерировать всратые пикчи, классификаторы рил тайма - классификация, в рил-тайме. Если взять у той же обезьяны участок мозга и развить его полностью загубив остальные, она сможет и в генерацию текста на уровне нейронок, но там много сложностей и общество по защите животных посадит тебя на бутылку.
Сейчас проблема в том, что тот же gpt, алгоритм движения робопса и компьютерное зрения находятся в разных состояниях и основаны иерархично. Компьютерное зрение не будет дообучено без вмешательства людей, и по сути каждая составляющая почти не связана с другой. В мозгу любых мало мальски развитых существ есть несколько отделов которые связаны куда сильнее и которые по сути непрерывно взаимообучаются и на задачу "опиши то что ты видишь на тарелке" нейронка сначала посмотрит классификатором, найдет там яблоко а потом отправит "яблоко" в гпт и выйдет что то вроде "яблоко. как много смысла в этом слове, оно может быть съедено, может лежать в анусе, может ходить и говорить" или что то в этом роде. Мозг человека же сначала отправляет сигнал с глаз на классификатор, потом классификатор возбуждает некоторые нейроны и по сути создает интерпретацию яблока в виде матрицы, и уже она отправляется в речевой центр чтобы сказать "на столе лежит яблоко".
44 2079813
>>078932
>>078942
Ан нет, не наебал.
https://arxiv.org/pdf/1703.03864.pdf
Там буквально тот же алгоритм, что и здесь https://arxiv.org/pdf/1803.07055.pdf , но в последнем обучают линейную модель, а в первом даже сверточные сети. Но только учти, что там специфические задачи, не очень большие сети (по меркам supervised ml) и 1440 процессоров.
45 2080001
>>079625

>Если взять у той же обезьяны участок мозга и развить его полностью загубив остальные, она сможет и в генерацию текста на уровне нейронок


Охуительные откровения диполухов продолжаются
16230875571941.mp41,2 Мб, mp4,
1280x720, 0:08
46 2080027
Анон, подскажи, пожалуйста.
Допустим есть берт и пайплайн для получения ответов на вопросы.
Можно ли вместо ответов получить эмбеддинги ответов?
Если можно, то надо модифицировать пайплайн или саму модель?
Пайплайн в таком случае вообще нужен?
47 2080047
>>080001
Что не так? Если ты про то что этого не сделали, то уже написал же. Например недавно в китае заставили самцов мышей забеременеть через пришитие их тел к телам самок и пары других модификаций на уровне гуро. Так теперь с ними судятся и им грозит как минимум штраф.
А тут нужно во первых провести ряд эксперементов а это минимум -10 обезьян, а потом превратить жизнь еше одной в ад без гарантий на то что эксперемент будет сам по себе сразу удачен. За это в лучшем случае на твою лабораторию сбросят пару атомных боеголовок.
48 2080120
>>079564

> GPT-3 - реально как живая


Какая из них GPT? У novelai или ai-dungeon?
49 2080220
>>080120

> Какая из них GPT? У novelai или


> ai-dungeon?


У этих гпт3, но только в версии dragon. У novelai gpt-j-6B.
50 2080325
>>080220
То есть с одной стороны в платном ai dungeon есть нормальный генератор текста, который не отличить от человека, но если заставить генерить детское порно, то отлетишь в бан. окей
51 2080694
>>080325
Там все тексты логируются, даже пользователю можно просмотреть и сохранить всю историю своей переписки с гпт. Видимо, на их стороне дополнительно прикручен детектор всякого атятяй-контента, а самых умных а-ля "ебырей кошкодевочек", банят.
52 2081353
не знаю насколько вопрос в тему, но есть ли у кого-нибудь материалы курсов статистики ФИВТ'а? простым смертным вроде не доступны. есть только вот такой куцый огрызок
https://mipt-stats.gitlab.io/courses/stat19.html
тут только лекции, и то лишь по первой половине курса.
а хотелось бы ещё и семинары, конечно
53 2082222
Глядите что нвидка зарелизила.
http://nvidia-research-mingyuliu.com/vid2vid-cameo/
54 2082445
Можете дать идею для пет проджекта чтобы можно было показывать на собесе на стажировку/на джуна? Мб датасет какой нибудь...
Нужно что-нибудь поинтереснее трёх с половиной решенных домашек на гитхаб залить.
55 2082486
>>082445
object detection|object segmentation + автопилот например для ГТА
56 2082494
>>082445
Sentiment analysis на русском и чтобы на каком-нибудь хероку крутился и можно было потыкать.
57 2082552
>>082445
Зафайнтюнь гпт на пастах про говно.
58 2082554
Что такое 768 в выходном слое у BERT?
59 2082938
>>082486
>>082494
>>082552
уфф это всё конечно круто, а можно что-нибудь не дип лёрнинговое, есть идеи? я для начала отобраться хочу хотя бы sql запросики выгружать и лгбтбустинг тыркать по возможности...
60 2082951
>>082938
Тогда напиши генератор паст про говно без нейронок с помощью простого рандома и его манипулции. Разумеется с датасетом в sql.
62 2083045
>>083038
классические нлп методы предлагаешь потыкать? ну, наверное, можно, просто я думаю от стажеров чутка другого ждут.
Если ничего более интересного не нарою - займусь этим, спасибо.
1488464929442.png243 Кб, 550x302
63 2083054
64 2083090
>>083045
есть мнение что неплохо было бы сделать проект по рекомендательным системам/ранжированию.

есть идеи где найти датасет под такие задачи?
65 2083194
>>083090
Задача #1: занырнуть в датамайнинг. То есть научиться гуглить
66 2083336
>>079563
Загадка жизни разгадана, маняромантик. Теория Дарвина. Только вот денег на такие разработки в эволюции электронных мозгов ни у кого нету.
67 2083346
А есть ченить на русском?
Ну после часа чтения или слушания на ангельской меня заебывает.
68 2083352
>>083346
A что есть что-то послушать на ангельском кроме презентаций новых процессоров или одного-двух разборов статей?
69 2083376
>>083346
Лучше считать что нет, я даже больше скажу, например вся математика ЕСТЕСТВЕННО есть на русском, оригинально на нем же написанные учебники, это очевидно, но поскольку все края знаний по МЛ в которых для понимания требуется знать хотя бы термины из математики будут на английском и у тебя будет эффект хуйни от несоответствия в голове понятий, банальное дот-продукт и скалярное произведение, и в нумпай ты будешь писать np.dot а не np.skalarnoe_proizvedenie как бы. Ты рядом с дот-продуктом выучишь иннер продукт, который часть иннер продукт спейса. Что ты услышишь на русском? Правильно - очевиднейшее ПРЕДГИЛЬБЕРТОВО пространство и так далее, просто все библы адаптированы и логически подстроены под английские названия
Если ты хоть чего-то уже понимаешь - открой любой вебинар со скиллбокса, где кабанчик-препод из-за специфики скиллбокса(потенциальный клиент не знает математики и английского) выкручивается как шашлык ебаный при попытке просто как-то описать one-hot-encoding, каждый раз уточняет что такое mean и что такое median, постоянно путается сам называя то векторами, то арреями, причем сами арреи иногда нумпаевские вектора, иногда просто общее название структуры данных, я ебал
Весь этот КУКОЖ должен намекнуть что миксовать не стоит, а поскольку возможности с нуля и до упора выучить на русском хоть одну библиотеку нет никакой, то вывод - изначально все учить на английском
Я тебя понимаю частично, только я раньше когда художественную литературу начал читать на инглише, сессия чтения на русском у меня была страниц под 300, на английском на старте 75 и все - голова чугунная. В итоге раздрочилось и разницы почти не стало, просто перетерпи
70 2083380
/test
71 2083461
>>080047
Мимо
Мы не знаем как напрямую обучать ЦНС животных, как вообще работают нейроны, откуда у них случается случайная синхронизация и т.д.
72 2083485
>>083461
Частично знаем же, да и обучить цнс смог еще Павлов собаке, да и учёные в хую моченные уже смогли управлять поведением мышей через имплант стимулирующий участки коры мозга. А работу нейронов в частном случае открыли еще в 1837 году и давным давно смоделировали.
Ну и дело за кучей крайне жестоких опытов и сотнями убийств мартышек и дело в шляпе.
1623935290114148129.jpg136 Кб, 824x1280
73 2083504
>>083485

>Павлов собаке


Разницу между рефлексами и разумом нейродебилы еще не понимают?
16246163301630.jpg104 Кб, 592x532
74 2083539
>>083461

> Мы не знаем как напрямую обучать ЦНС животных,


> мы


Кто вы-то? Зумера? Давно все известно.
>>083504

> Разницу между рефлексами и разумом нейродебилы еще не понимают?


Ты много понимаешь, поридж?
75 2083540
>>083504
Напомни пожалуйста, на чем основаны рефлексы? Ах да, на возбуждении определенных нейронов из за определенных стимулов (собака получает стимул выделять желудочный сок от еды которую в ее сознании совместили с музыкой). А теперь напомни, на чем основан разум? Ах да, на возбуждении определенных нейронов из за определенных стимулов (человек пишет слово хуй на заборе из за стимула показать что он долбаеб и этот стимул в его сознании связан с рисованием на стенах). Конечно, разум куда сложнее, стимулов как скрытых так и явных куда больше а связи сложнее и участвуют более разрозненные и многочисленные группы нейронов, но это уже давно не черный ящик.
Даже сейчас разработана хуйня которая может определить понравился ли человеку другой человек или нет по активности мозга. Ей же, даже без дырки в черепе, уже даже можно управлять мышкой.
И отгадай, что это значит? Правильно, разум это сложный набор тех же примитивов что и лежат в основе рефлексов и самой цнс. Думаю что из этого следует догадаешься сам.
76 2083545
>>083540

>на чем основаны рефлексы?


На том, что тело и разум это разные вещи. Как нейродебилы обьясняют безусловные рефлексы или инстинкты?

Процесс развития рабочей пчелы от яйца до выхода взрослой особи продолжается 21 день; из них 9 дней пчела находится в открытой ячейке и 12 дней — в запечатанной. Трутень же развивается дольше, чем рабочая пчела. Стадия яйца у него длится 3 дня (как и у рабочих пчел), стадия личинки — 6,5 дней. В запечатанной ячейке трутень находится 14,5 дней. Всего со дня откладывания яйца до выхода взрослого трутня проходит 24 дня.

Сформировавшаяся рабочая пчела или трутень прогрызают крышечку ячейки и выходят на поверхность сота.


Через 21 день пчела выходит из соты со всеми навыками взрослой пчелы. Кто обучал ее нейроны? Мммм?
77 2083609
>>083545
Ты немного тупенький раз для аргументации тебе понадобились еще и инстинкты, верно? Ты еще написал бы а хули у пчел есть глаза или крылья, откуда? Тоже нейронами додумались отрастить?
И нет, не нейроны. Если ты правда считаешь что нейроны сами по себе могут с нихуя взять и обучиться то я жалею о тех минутах пока писал посты для срача с озлобленной мартышкой из которой сделали реальную нейронную сеть и запустили срать на двощах.

Инстинкты как известно всем кто учился в школе хотя бы 7 классов, передаются на генетическом уровне в хромасомах. То есть по сути новая особь живого организма это развертка генетического кода. А именно все строение организма, путь его развития, базовое состояние клеток которое вроде химического состава клеток и так далее. Надеюсь ты все это время толстил и на самом деле проучился 8 классов после чего пошел на завод, ведь то что ты мартышка все же мало вероятно. Так вот, тебе должно быть известно что обмен информацией и ее хранения в нейронах и между ними осуществляется на химическом уровне. Возвращаясь к тому что было двумя предложениями раннее, воспроизводится и химический состав а так же строение цнс которое подобранно в ходе эволюции. То есть у практически всех живых существ уже есть изначальные состояния нейронов и тела которые зависят от родителей.

И снова вернемся к рефлексам. Да. Часть из них вроде дыхания, сердцебиения и так далее тоже с самого начала так сказать компилируется из генетического кода уже в таком состоянии что средце бьётся а дыхание работает.
Ну и как известно, людям либо не переходит состояние разума совсем, либо переходит самый минимум, и тут я говорю не о памяти бати или деда а о общих начальных состояниях нейронов которые вывелись еще когда человек по пещерам лазил, например боязнь младенцами пауков и змей без которых в те времена бы большая часть человечества вымерла бы.
30067889-1.jpg170 Кб, 900x1200
78 2083747
>>083609

>генетическом уровне в хромасомах


>начальных состояниях нейронов


Ваше статистическое говно в ящике к биологическим нейронам не имеет никакого отношения. Обтекай.
79 2083779
>>083747
При чем тут компьютерные нейронки?

> Молекула ДНК хранит биологическую информацию в виде генетического кода, состоящего из последовательности нуклеотидов


> Каждая хромосома состоит из хроматина - сложного комплекса из ДНК , белков и некоторых других компонентов (в частности, РНК ). Хроматин неоднороден, и некоторые типы такой неоднородности видны под микроскопом.



Или тебе нужно заглянуть в твой учебник за 6 класс по биологии чтобы не срать под себя?

Даже если это хранится не в нейронах, абсолютно точно то что это воспроизводится в той части где это хранится.

Ну и первая статья в гуголе.
https://ria.ru/20120917/752767252.html
1618442746142576387.png641 Кб, 795x597
80 2083787
>>083779
Нейродебил сорт ов сектантов.
1624971398419.jpg2 Кб, 170x113
81 2083803
>>083787

> Нейродебил


Сказали нейроны мартышки подключенной напрямую к мочачу
82 2084233
>>082938
просто как идея - захуярь скоринговую карту на логреге, да, это с трудом можно назвать датасаенсом, но можно потом пытаться вкатиться в банки
n9ioRuKYU30.jpg318 Кб, 929x960
83 2084385
всем привет
итак, есть две задачи: 1.классифицировать изображения людей как настоящие или как сгенерированные(точность модели должна быть не менее 0.9)
2.есть два фрагмента текста, и нужно определить, есть ли между 2 фрагментами текста причинно-следственная связь(не менее 0.2)

до конца июля мне нужно решить хотя бы одну задачу, также, на практике, я полный ноль в машинном обучении, знаю самые основы питона, с математикой проблем нет. я прошу вас, аноны, направить меня в нужное русло, скинув литературу/курсы/другие ресурсы и желательно конкретные темы, необходимые именно для этих задач. вообще, возможно ли их решить за такой короткий срок изучив все необходимое?

заранее всем спасибо за любые советы и рекомендации
84 2084453
>>084385

> 1.классифицировать изображения людей как настоящие или как сгенерированные(точность модели должна быть не менее 0.9)


Это крайне легко же.
Берешь самый простой из готовых новых классификаторов, берешь самый пиздатый генератор ебальников, берешь датасет с реальными лицами и учишь нейронку, указав что в папке real реальные, в папке gen сгенерированные.
Как два пальца об асфальт.

> 2.есть два фрагмента текста, и нужно определить, есть ли между 2 фрагментами текста причинно-следственная связь(не менее 0.2)


А тут можно натренировать гпт или берт на разделенном датасете где каждый текст в виде "первый фрагмент второй фрагмент вывод". А потом при генерации дать ввести первый фрагмент, дать ввести второй фрагмент и вставить в затравку как строку.

Хотя если делать свою архитектуру с околонуля то до конца июля ты явно не успеешь, хотя точность в первом случае так можно повысить. Главное чтобы было на чем тренировать.
85 2084458
>>084385

> есть ли между 2 фрагментами текста причинно-следственная связь(не менее 0.2


Это как вообще? Если просто подкидывать монетку, разве точность будет не 0.5?
86 2084459
>>082938
Может быть что-то с географическими картами?
87 2084472
>>084453

>берешь самый пиздатый генератор ебальников


Так смысл ему брать самый пиздатый, если у него в датасете скорее всего будут другие ебальники, построенные другой моделькой. Первым делом надо требовать датасет, на котором в итоге будет замеряться точность.
88 2084474
>>084472
Так каждый генератор лиц обучается на датасете, и чаще всего это face что то там, уже точно не помню название. Он есть в открытом доступе же.
89 2084666
Сап, нейрач. Я пытаюсь обучить сеть с GRU для расчета регрессии и ловлю такую проблему: в наборе исходящих переменных первая в наборе предсказывается хорошо, а остальные - плохо. Причем если я на первое место поставлю другую, то уже она будет хорошо предсказываться.

Я нуб, и пробовал делать сеть на основе двух разных примеров, но в обоих случаях получается вот так. Что это такое? Мой косяк?
90 2084678
Где найти имена классов для deeplab v3?
https://pytorch.org/hub/pytorch_vision_deeplabv3_resnet101/
91 2084821
Я тут подумал, а что если в трансформеры типа гпт с помощью датасета запихать фичу типа берта на анализ всей последовательности токенов а не только прошлых? Типо в начале в датасете указывается позиция и сам токен, затем сам текст с этим токеном на позиции и токен конца текста а затем по новой.
Уже так делали? Есть ли смысл делать такой костыль?
92 2085246
А я подумал, что если у нас есть готовый эмбеддинг, то разве нельзя с ним дальше работать как с векторным пространством, только вместо векторов - тензоры? Где-то попадался алгоритм классификации тензоров. Или как лингвистические регулярности, только с тензорами, там вообще ничего кроме арифметики с тензорами не нужно. Даже сам претрейн не нужно в оперативу пихать, обращаться к нему как к базе данных, запросами а-ля SQL. Почему так нельзя?
image.png517 Кб, 2450x1742
93 2085253
Там это. Кодерки на помоечку идут. Гитхаб сам себя заполняет.
https://copilot.github.com/
94 2085255
>>085246
Почему эмбеддинг - тензор? Обычно же именно векторы испрользуют.
С какими-то эмбеддингами можешь работать как с векторным пространстовм (w2v), с какими-то это будет очень неестественно или бессмысленно (facenet).
Можешь делать что хочешь, лишь бы работало не хуже стандартных методов.
95 2085258
>>085253
Имплаинг лично теб это не каснется, лол
96 2085260
>>085255

> Почему эмбеддинг - тензор? Обычно же именно векторы испрользуют.


Может быть, я ошибаюсь, но фичи слов, фраз итд, которые выдают трансформеры, это именно тензоры. Где-то даже видел тему, как эти тензоры пытались складывать и вычитать, ну типа как тот пример word2vec - "king - man + woman = queen", правда ничего не вышло.
97 2085679
>>085260
King - man + woman это именно векторы складывают, не случайно там word2VEC.
А конкретно в примере выше на самом деле должно получаться king. Queen это ближайший вектор к результату, если не учитывать слагаемые слева.
А трансформеры выдают тензоры потому что так удобней понять, что с какого слоя пришло и что к чему относится. На практике всё равно это каким-либо образом вытягивается в вектор.
98 2085796
>>083609
Так и чего тогда условная гроза, вызывающая сильные ЭМ помехи не крашит всем сознание? Или это другое и на "начальное состояние нейронов" не работает? А куча сраных мутаций, сотресение мозга?

Слишком много редукционизма
99 2085798
>>083609
https://habr.com/ru/post/395965/
Ну вот как он без "базовой" архитектуры живет?
100 2085801
Посоветуйте учебник
1) тервер и матстат в одной книжке
2) в меру строгое повествование, с доказательствами, теоремами и тд
3) легко и понятно написано
4) желательно на русском
101 2085802
>>085801

>2) в меру строгое повествование, с доказательствами, теоремами и тд


>3) легко и понятно написано


Как понты математиков могут быть легко и понятно написаны?
102 2085821
>>085801
Вентцель, "теория вероятностей". Кок-пок нимодна
103 2085995
>>085796
Про магнитные бури слышал? У многих от них болит голова и отгадай почему.
А если молния ударит в голову то может спокойно сжечь некоторые участки вместе с волосами и кожей.
А сотрясение мозга по своей природе это механическое повреждение, небольшая часть нейронов повредится и даже может мешать передаче между другими.
Однако мозг - избыточен, а избыточность ведет к стабильности. И в итоге те нейроны что были повреждены уничтожаются и поглощаются другими а существующие которые были в избыточном участке и почти не играли роли идут на их место.
Ну и мутации само собой есть и охуеть как могут влиять, это в конце концов механизм эволюции и это самое начальное состояние у макак сильно отличается у состояния у человека. Неблагоприятные мутации обычно называют болезнями, тот же аутизм и куча других врождённых траблов.

>>085798

> Свою теорию Аксель Клиреманс впервые опубликовал в 2011 году. Он называет её «положением о радикальной пластичности» мозга. Этот тезис вполне соотносится с последними научными исследованиями, которые показывают необычную пластичность взрослого мозга, способного восстанавливаться после травм, «перепрограммировать» отдельные участки на новые задачи, восстанавливать сознание и полную работоспособность.


> Теория Клиреманса может объяснить случай с французским мужчиной, который сохраняет сознание в отсутствие 90% нейронов. По мнению учёного, даже в этом крохотном мозге оставшиеся нейроны продолжают описывать собственную активность, так что человек отдаёт отчёт своим действиям и сохраняет сознание.


Же. Архитектура мозга может постоянно меняться и вполне возможно что инструкция к изменению тоже заложена на генетическом уровне. То есть базовая архитектура есть, но она сложна, модульна, избыточна и может меняться.
104 2086080
>>085679
Всё-таки интересно, можно ли так же с трансформерами делать. По идее, точность должна быть намного выше чем у word2vec, у трансформеров же эмбеддинг учитывает контекст, и для одного и того же слова в разных значениях, тензоры тоже разные. Просто вычитать и складывать тензоры точно нельзя, надо как-то иначе.
105 2086132
>>085995
Нет-нет. От манитных бурь у тебя не голова дожна болеть, а глюки начинаться. Я вот ничего подобного, что происходит в сильном МП с ПК у человека не видел.
106 2086134
>>085995

>Однако мозг - избыточен,


Это еще доказать ндао
107 2086135
>>085995

>Же. Архитектура мозга может постоянно меняться и вполне возможно что инструкция к изменению тоже заложена на генетическом уровн



Сразу сознание в гены запихай, а хули нам.
108 2086148
Чего этот сим свап такой качественный?
109 2086153
>>086134

> человек спокойно хоть и с 75iq живет без 90% мозга


> доказать надо


Уже.
110 2086158
>>086135
Оно изначально почти пустое и почти наверняка в генах же. А потом само собой развивается. Хули нет то? Твои предположения?
111 2086160
>>086132
Компы - полностью эм структура где основную роль что в памяти что в самом процессоре выполняют электромагниты. В голове основа - химические реакции. То есть влияние магнитов куда слабее, к тому же кожа и кости это довольно неплохая изоляция.
112 2086210
>>086080
Ты для начала посмотри, что означает каждая размерность в тензоре.
113 2086264
>>085798

>habr.com


Говноед, уходи
114 2086294
>>082486
ну вы блин посоветуете. Еще пусть создаст робота который делает автомобили как завод у Маска...
115 2086352
>>086294
Это же так просто же. На самом деле.
мимо
116 2086427
>>079619

>потому что даже с обезьяной ты хуй поговоришь


С ГПТ-3 ты тоже хуй поговоришь. ГПТ не говорит с тобой, она просто продолжает цепь токенов наиболее вероятным образом исходя из заданного контекста. Она обучен на огромном литературном корпусе, где люди описывали реальные ситуации, либо моделировали их, ГПТ-3 по сути, продвинутая поисковая система. Ты вгоняешь в неё последовальность токенов, она ищет подобную последовательность и продолжает её. Так как в памяти ГПТ-3 просто дохуя заранее созданных людьми литературных текстов, она может продолжить практически любую цепочку более-менее адекватно.

Но ГПТ принципиально отличается от любого животного. Кошка, собака, слон, сорока пусть не говорят, но у них есть личность, память и собственные интересы (пусть даже это банальный интерес - получить от тебя банан). Сорока охуенно осознаёт себя как личность. Сорока прекрасно понимает, что вот есть она, сорока, и есть ты, субъект, с которым она взаимодействует с какой-то целью. И её действия куда более целенаправлены и интеллектуальны.

Сорока может сделать какие-нибудь выводы. Она может решить, что ты для неё опасен, или наоборот, безопасен, она может понять, что ты являешься источником корма, она может просто играть с тобой даже без корма, потому что ей это по кайфу. Потому что у неё есть личность. Потому что изначально в природе была сорока - организм, который должен питаться, размножаться и т.д. А уже потом эволюция присобачила сороке интеллект, чтобы сорока могла лучше решать свои задачи.

Поэтому в природном интеллекте первично самоосознание, у любого природного интеллекта есть "Я". И есть возможность с ним "поговорить". Тебе же не обязательно говорить с сорокой именно словами. По сути "разговор" - это просто обмен информацией между твоим "Я" и "Я" сороки, где каждый осознаёт себя отдельно и делает из этого обмена информацией какие-то выводы для себя.

В ГПТ-3 такого близко нет. У ГПТ-3 нет "Я". Это просто генератор текста. За любым природным интеллектом стоит некое живое существо, а интеллект - лишь надстройка над жизнью. За ГПТ-3 ничего не стоит. У нейросетки нет целей, нет задач, нет тушки, нет своих интересов. С ней нельзя разговарить, максимум, её можно использовать как крутой поисковик по корпусу сгенерированных людьми текстам.
116 2086427
>>079619

>потому что даже с обезьяной ты хуй поговоришь


С ГПТ-3 ты тоже хуй поговоришь. ГПТ не говорит с тобой, она просто продолжает цепь токенов наиболее вероятным образом исходя из заданного контекста. Она обучен на огромном литературном корпусе, где люди описывали реальные ситуации, либо моделировали их, ГПТ-3 по сути, продвинутая поисковая система. Ты вгоняешь в неё последовальность токенов, она ищет подобную последовательность и продолжает её. Так как в памяти ГПТ-3 просто дохуя заранее созданных людьми литературных текстов, она может продолжить практически любую цепочку более-менее адекватно.

Но ГПТ принципиально отличается от любого животного. Кошка, собака, слон, сорока пусть не говорят, но у них есть личность, память и собственные интересы (пусть даже это банальный интерес - получить от тебя банан). Сорока охуенно осознаёт себя как личность. Сорока прекрасно понимает, что вот есть она, сорока, и есть ты, субъект, с которым она взаимодействует с какой-то целью. И её действия куда более целенаправлены и интеллектуальны.

Сорока может сделать какие-нибудь выводы. Она может решить, что ты для неё опасен, или наоборот, безопасен, она может понять, что ты являешься источником корма, она может просто играть с тобой даже без корма, потому что ей это по кайфу. Потому что у неё есть личность. Потому что изначально в природе была сорока - организм, который должен питаться, размножаться и т.д. А уже потом эволюция присобачила сороке интеллект, чтобы сорока могла лучше решать свои задачи.

Поэтому в природном интеллекте первично самоосознание, у любого природного интеллекта есть "Я". И есть возможность с ним "поговорить". Тебе же не обязательно говорить с сорокой именно словами. По сути "разговор" - это просто обмен информацией между твоим "Я" и "Я" сороки, где каждый осознаёт себя отдельно и делает из этого обмена информацией какие-то выводы для себя.

В ГПТ-3 такого близко нет. У ГПТ-3 нет "Я". Это просто генератор текста. За любым природным интеллектом стоит некое живое существо, а интеллект - лишь надстройка над жизнью. За ГПТ-3 ничего не стоит. У нейросетки нет целей, нет задач, нет тушки, нет своих интересов. С ней нельзя разговарить, максимум, её можно использовать как крутой поисковик по корпусу сгенерированных людьми текстам.
sage 117 2086430
>>086153
Ты понимаешь, что в природе избыточность, особенно такая - бессмысленна и невозможна. Мозг сжирает огромную кучу энергии => у всех должен быть такой же мозг, как у него +/-
118 2086431
>>086427
В каком-то смысле ты прав, но это все не имеет значения. Ты зациклен на животной схеме, когда интеллект это лишь инструмент размножения. Отсюда вытекают все описанные тобой ограничения. Но это не обязательно должно быть так. ГПТ это чистый интеллект, не обремененный собственным я, инстинктами, мотивацией, самосознанием. Это квинтессенция того, что есть интеллект. Поэтому он потенциально гораздо сильнее человека, хотя и "поговорить" с ним как с человеком не получится. Вернее, получится, но он лишь симулирует личность. Личность эта создается под ситуацию, и исчезает после генерации ответа. Твой мозг имеет только одну личность, и постоянно держит ее активной. И это ограничение мозга, а не преимущество.
sage 119 2086432
>>086158
ЧТо само-собой? Ты понимаешь, что такое сознание вообще? Я понимаю, вы тут не на филфаке учились. Алсо, где у детей маугли сознание? Почему они из себя предстапвляют не более, чем животных.
sage 120 2086433
>>086160
А хим реакции - это типо не ЭМ взаимодействия, ога. Марш читать учебник физики.
121 2086434
>>086264

>2ch.hk/pr


Говноед, уходи
122 2086435
>>086160

>в самом процессоре выполняют электромагниты


Пиздец. Тебе там норм до изобретения ламповых компов?
123 2086436
>>086427
Это основная проблема трансофрмеров же, это скорее оракул чем разумное существо. Где то видел как пытались сделать ии новой архитектуры, ему дали тесты на интеллект и он по словам разрабов прошел их на 100%. Код о.ещали заопенсорсить когда их юрист все наладит.
Еще слышал что нихонцы решили сделать аналог мозга на каких то трубках с эффектом памяти путей как в мозге.
Ну и само собой гпт крайне полезен для определенных задач где нужен не кожаный мешок а ии который анализирует данные и выдает нужный результат, тот же копилот от хуев с майками для помощи макакам.
124 2086437
>>086160

>же кожа и кости это довольно неплохая изоляция.


Не лучше, чем теплораспределительная крышка и теплотрубки
125 2086438
>>086430
С чего невозможна? Что мешало в процессе эволюции увеличивать избыточность чтобы даже такие как он с 10% и другими повреждениями мозга разной степени не умирали от каждого пука?
126 2086439
>>086432
Я написал что то про то что сознание изначально взрослого человека? Вполне логично что если они представляют собой скорее животных то и сознание у них развилось как у животного.
127 2086440
>>086433
Есть разница между прямым влиянием на физическое состояние железок и зашумлением поведения электронов в хим реакции. Большая разница.
128 2086441
>>086435
Независимая память и поведение транзисторов все еще эм.
129 2086442
>>086437
Хуже же. Кожа сама по себе не пропускает электричество во внутрь пока не догорит, так еще и охват тела практически полный.
130 2086445
>>086436
https://m.habr.com/ru/news/t/565572/
Вот та статья на хабре.
да уже ушел
131 2086447
>>086438
C того, что это тонны энергии вникуда. Генетические алгоритмы забыли, да?
132 2086450
>>086439
Сознание, блять, у животного.
133 2086451
>>086447
Они находят свое применение - у того чела iq 75. Наверняка есть и деградация мелкой моторики и другие мелкие траблы. Если бы эволюционно у всех был бы мелкий мозг, до компов мы бы точно не дошли. К тому же логично что во времена бега с палками шанс огрести по голове был 99,9% и выживал тот у которого после этого оставались работающие нейроны, он и давал потомство.
134 2086454
>>086440
что
136 2086457
>>086450
Прикинь да. Не человеческое а животное. Википедию открой что ли.

> Сознание животных, как и человеческое сознание, является состоянием: ощущаемым состоянием — состоянием, в котором есть чувство нахождения в нём. Оно включает в себя качество или состояние самосознания у животного: осознание внешнего объекта или чего-то внутри себя.[2][3] Это является ключевым вопросом при обсуждении прав животных. У людей сознание определяется через чувствительность (англ. Sentience), осознанность, субъективность, квалиа, способность испытывать или чувствовать, бодрствование, чувство собственного достоинства и систему исполнительного контроля разума.[4] Несмотря на трудности в определении, многие философы полагают, что существует широко распространенное общее понимание о том, что такое сознание.[5]

137 2086458
>>086442
Мы про магн. поле говорим, нет?
138 2086459
>>086457
Охуеть. Учебник философии открой. Не мне тебе рассказывать, про хуевость терминологии и раздробленность современной науки.
139 2086460
>>086455

> Накопитель на жёстких магнитных дисках, или НЖМД (англ. hard (magnetic) disk drive, HDD, HMDD), жёсткий диск, разг. винчестер — запоминающее устройство (устройство хранения информации, накопитель) произвольного доступа, основанное на принципе магнитной записи. Является основным накопителем данных в большинстве компьютеров.

140 2086461
>>086460
И где там транзисторы? Ах да, в чипе-контроллере, который отдельная железка, ну да.
141 2086466
>>086458
Про магнитное поле сказал же, у многих от него головная боль а нет крайне сильных глюков от того что воздействие на хим реакции у магнитного поля значительно меньше чем воздействие на железки. Дальше вроде начали про молнии. Не?
1625253626397.jpg24x18
142 2086467
>>086459

> философии


> философии


> философии


Предлагаю открыть календарь и увидеть что на дворе не шестой век до нашей эры, и открыть окно чтобы увидеть что там не античный рим.
Чего сразу про Космос не начал, я бы сразу заигнорил.
143 2086469
>>086461
И снова википедия.

> Большая часть современных процессоров реализована в виде одного полупроводникового кристалла, содержащего миллионы, а с недавнего времени даже миллиарды транзисторов.

144 2086471
>>086447
Есть нейропластичность. Мозг пропадал медленно и поэтому успевал восстановить/копировать важнешие из пропавших участков. Это всё вилами по воде и спекуляции, но у тебя не лучше.
И надо учесть, что он из франции, где он даже без работы мог бы неплохо жить на пособия по безработице. В более суровой среде непонятно, как нехватка мозга сказалась бы.
145 2086499
>>079584

>мы вам не покажем


Ты можешь через aidungeon теребить GPT-3 сколько хочешь, пока не начнёшь писать рассказы про еблю несовершеннолетних (за это банят). Заодно можешь сравнить её с novelai. Но novelai - только за деньги (хотя там какое-то копьё, вроде 10 долларов в месяц, не помню уже).

Я бы тебе советовал купить доступ к обеим нейросетям и поиграть с ними, чтобы сравнить.

Самое удивительное в том, что технически они эквивалентны. Разница только в количестве свободных параметров и размерах обучающих выборок. И это удивительная штука. Создаётся впечатление, что мы можем получить AI просто "ниоткуда", просто въябывая вычислительные ресурсы в их обучение. Это очень необычно, как по мне.
146 2086504
>>080120
Я на оба сервиса подписан. Novelai - классный инструмент. Они там дают удобный доступ почти ко всем настройкам. Но GPT-3 генерит текст на голову выще gpt-neo. Короче, если ты предоставляешь Novelai самой себе, текст быстро вырождается, она ближе к цепи Маркова. А GPT-3 как-бы самостоятельно может генерить текст. А разница между ними только в объёме. Вот в этом и вопрос, может ли количество перейти в качество?
147 2086513
>>086467
Ну тебе в отрицалово проще уйти. Похуй на этих дебсов, гегели, трудовые теории происхождения разума. Гавна какаята
148 2086514
>>086467
В вузах философию по приколу преподают на почти всех факультетах наверное.
один ты умный, да-да
wildlife-3211742960720.jpg.640x480q75upscale.jpg49 Кб, 638x480
149 2086515
>>083346
Нет. А вообще, если тебя заёбывает читать/слушать на английском - это плохой знак. Вот меня сейчас английский заёбывает. Но мне сорок. Мозги уже не те. Раньше не заёбывал. Если тебя сейчас английский заёбывает, просто тренируйся прямо сейчас as hard as you can. Потому что дальше будет только хуже. А хуле ты хотел?
150 2086535
>>086499

>Самое удивительное в том, что технически они эквивалентны. Разница только в количестве свободных параметров и размерах обучающих выборок.


Или может ещё в чём-то, от кучи эвристик поверх до китайцев in the loop. Пока closedai не дадут модель в открытый доступ весь этот пиздёж можно мимо ушей пропускать.
151 2086580
>>078573 (OP)
Ну что, где там ваши автономус вехиклы?
152 2086583
А кто-нибудь уже догадался натаскать нейронку на каком-нибудь Quora, The Question или подобных сервисах, чтобы отвечала на вопросы? Получилось что-то хорошее?
153 2086601
>>086513
>>086514
Я знаю и сам учусь в вузе на прохраммиста и знаю на сколько она бесполезна. Философия была нужна в те времена чтобы вытеснить мифологию и частично религию и заставить людей думать, пытаться объяснять, находить причинно-следственные связи и так далее, а не говорить что бох дал птице право летать и что то вроде того.
Ну и в 18 или около того веке, точно уже не помню, чуть подсобили науке одной из основ детерминизма что все взаимосвязанно и нет, как по мне предопределено не все но после этого роль философии в науке стала равна нулю.
Сейчас все движется к чему то вроде философии тоже термин не помню а гугл не находит где разные направления науки будут объединены, например это уже происходит с нейронками которые все ближе к стыку биологии инб4: нейронки имеют некоторые схожести и задумывались как модель мозга, высшей математики и программирования. Совмещение других направлений сначала в группы, а потом и в одну общую - лишь вопрос времени.
Однако это будет точно не философия ведь как правило философы ближе к гуманитарным наукам а то что ближе к точным (теорема Пифагора, еботня Лапласа и так далее) выносится в математику, физику и другие точные науки. То что выходит будет как раз таки точной наукой.
154 2086610
>>086601

>высшей математики


Вот это говно еще большее мракобесие чем философия
155 2086616
>>086610
Однако оно дает как минимум нейронки, без нее они были бы невозможны.
ну и мне зашла, интересная хуйня и дохуя практических применений, так еще и информации в интернетах по ней много
156 2086617
>>086616

> оно


*она
фикс
157 2086620
>>086616

>нейронки


Нерабочее говно для пориджей. Тупик ИИ.
158 2086624
>>086620
Для специализированных задач регрессий и даже нлп хватает, в принципе то что есть сейчас даже не интеллект искусственный да, а просто сложный вероятностный алгоритм.
А полноценный ии уже можно делать на его базе, в конце концов одна из основных функций мозга которая делает человека разумным существом это способность предсказывания основыванного на опыте. К тому же в эту сторону активно ведутся исследования и есть различные успехи как напрямую, так и в смежных областях которые позволят увеличить вычислительные мощьности.
159 2086628
>>086624

>А полноценный ии уже можно делать на его базе


Только всем лень, ага.
160 2086650
>>086601

>философия была нужна в те времена чтобы вытеснить мифологию и частично религию и заставить людей думать, пытаться объяснять находить причинно-следственные связи и так далее, а не говорить что бох дал птице право летать и что то вроде того.


Нет, такой позиции в академической истории религии/философии не существует, ты просто несёшь спекулятивную хуйню без доказательств (а доказательств этой хуйни быть не может).

>но после этого роль философии в науке стала равна нулю


Поэтому физики весь прошлый век спорили про философию. И математики. И биологи.
Ну и да, "что такое наука" - философский вопрос.

Дальше твой высер даже не читаю.

>>086620
Предложи что-нибудь рабочее, чтобы побило бенчмарки в cv/nlp.
161 2086719
>>086628
Так делают же. Или по твоему все передовые научные группы в области ии тыкают 24/7 трансформеры?
1625306393466.jpg211 Кб, 1080x1662
162 2086727
>>086650

> Нет, такой позиции в академической истории религии/философии не существует, ты просто несёшь спекулятивную хуйню без доказательств (а доказательств этой хуйни быть не может).


Первое доказательство - философию в большинстве считают юзелесс хуйней и не воспринимают всерьез нигде дальше гуманитарной околонауки. Второе - философия всю свою историю подстраивалась под другие точные науки, то же изменение термина детерминизма (единственной вещи которая оказала хоть какое то влияние на науку) с прямой взаимосвязи на косвенную. Да и в принципе постоянное изменение фундаментальных понятий вслед за техническими науками с опозданием на года если не десятки или сотни.

> Поэтому физики весь прошлый век спорили про философию. И математики. И биологи.


И сейчас все спорят, даже здесь и сейчас. А конкретно все кроме философов доказывают что философия рудимент, в то время как философы виляют задом для сохранения легитимности философии как науки.

> Ну и да, "что такое наука" - философский вопрос.


Обоссан пикрилом.

> Дальше твой высер даже не читаю.


Естественный метод защиты от всего что может заставить думать. Можно написать на любое мнение "дальше не читал" и игнорировать продолжение, дать абсолютно любые свои аргументы по теме и нет, и плевать если они были озвучены и обоссаны, и после этого считать себя правым.
В принципе типичный маняфилософ, чего еще ждать.
163 2086908
>>086727

>оксфорд лангауге


Ловите говноеда

ФИЛОСО'ФИЯ [гр. philosophia \\ phileo люблю + sophia мудрость] -- 1) система идей, взглядов на мир и на место в нем человека; наука о наиболее общих законах развития природы, общества и мышления; 2) методологические принципы, лежащие в основе какой-л. науки (напр., ф. математики, ф. истории); 3) * отвлеченные рассуждения о чем-л.
164 2086910
>>086727
Кста, что скажешь по поволу маняматики, она наукой фактичекски не является, это признают даже именитые матанопетухи.
sage 165 2086933
>>086601

>Я знаю и сам учусь в вузе на прохраммиста и знаю на сколько она бесполезна


Проиграл.
>>086727

>единственной вещи которая оказала хоть какое то влияние на науку


>в то время как философы виляют задом для сохранения легитимности философии как науки.


Здесь проиграл вдвойне. Программистики к науке отношения не имеют, и им не рассказывают потому, наверное, так много айтишников fucking love science))) про философию науки и ограничения научного метода. А то не писал бы такую хуйню.
Алсо, задачка на подумоть: труды Поппера которых ты не читал относятся к науке или философии?
166 2086967
>>086933

>Поппер


Мммм, в поппер нужно вначале пальчик засунуть
1625324365433.jpg216 Кб, 1080x1071
167 2086968
>>086908
И что не так?

>>086910
Пикрил же. Хули я все должен гуглить?

>>086933

> Проиграл.


Объективно, единственные для кого полезна философия это гуманитарии в юриспруденции, в художественных вузах, исторических и так далее. Там это может пригодится так как философия сама по себе как разминка для мозга и частично история. Но не более. На технических специальностях эту роль более чем полностью выполняет матан.

> потому, наверное, так много айтишников fucking love science))


Увлекаюсь физикой и квантовой хуйней, обтекай.

> про философию науки и ограничения научного метода.


Да, правильно мыслишь, про бесполезное говно там не рассказывают. То что наука определяет подлинность исходя из полноты описания и качества предсказывания и так ясно, как и то что мир может быть абсолютно другим. Про невозможность измерения того что невозможно измерить напрямую или косвенно тоже ясно. Однако во первых большая часть ограничений обходится продвинутыми машинами, те же квантовые компы, а во вторых даже если реальность абсолютно другая, это не мешает ее использовать и воздействовать на нее методами науки, те же обычные компы работают как и ожидается, более того даже крайне странные вещи вроде квантовой телепортации вполне работают и используются, а значит научного метода более чем достаточно.
Тем более что философия уже тут никаким боком не стоит. Или я проспал момент когда философы взяли и измерили вес темной материи?

> труды Поппера которых ты не читал относятся к науке или философии?


К философии науки, очевидно же. Однако философия есть философия вне зависимости от объектов или субъектов. По сути это просто систематизированные выводы на +-мета уровне.
И да, не читал. Если там что то действительно важное то я бы знал это имя как и каждый на планете, но судя по всему это далеко не так.
168 2086979
>>086968

>Пикрил же. Хули я все должен гуглить?


Ну перестань

Герман Вейль пессимистически оценил возможность дать общепринятое определение предмета математики:
Вопрос об основаниях математики и о том, что представляет собой в конечном счёте математика, остаётся открытым. Мы не знаем какого-то направления, которое позволит, в конце концов, найти окончательный ответ на этот вопрос, и можно ли вообще ожидать, что подобный «окончательный» ответ будет когда-нибудь получен и признан всеми математиками.

«Математизирование» может остаться одним из проявлений творческой деятельности человека, подобно музицированию или литературному творчеству, ярким и самобытным, но прогнозирование его исторических судеб не поддаётся рационализации и не может быть объективным
[14].
169 2086985
>>086968

>Увлекаюсь физикой


Чет кекнул. Это как?
170 2086992
>>086979
В том то и дело что это не совсем так, но это наиболее признанная трактовка которая висит на сайте откуда большая часть людей берет информацию. Иди и предлагай изменить первый абзац на эту цитату если считаешь что это не так. Собери множество жалоб на этот абзац за недостоверность. Почему нет? Если там будет написано другое то лишь соглашусь с этим.
171 2086997
>>086985
Читаю учебники по физике на пару курсов вперед и новые статьи которые подбирает рекомендации гугл хрома каждый день про новые открытия. и нет, научпоп не смотрю и не читаю, разве что когда сам по учебнику не допираю иду искать статьи по этой теме
изображение.png22 Кб, 723x335
172 2087031
>>086968
Блииин, а английский гугл отвечает, что математика — не наука((( Англоязычным гуглом больше людей пользуется, значит, правда написана(((
173 2087050
>>086997
Кек, ну вот я по химии читаю, но сказать, что увлекаюсь химей не могу. Хотя буду эксперименты пилить.
174 2087054
>>087031

> Гугол


> вместо википедии как на скрине


> с левым сайтом


Ммм, мне было лень открывать википедию конда делал скрин но вот тебе цитата из английской вики:

> Three leading types


> Three leading types of definition of mathematics today are called logicist, intuitionist, and formalist, each reflecting a different philosophical school of thought.[44] All have severe flaws, none has widespread acceptance, and no reconciliation seems possible.[44]



> Logicist definitions


> An early definition of mathematics in terms of logic was that of Benjamin Peirce (1870): "the science that draws necessary conclusions."[45] In the Principia Mathematica, Bertrand Russell and Alfred North Whitehead advanced the philosophical program known as logicism, and attempted to prove that all mathematical concepts, statements, and principles can be defined and proved entirely in terms of symbolic logic. A logicist definition of mathematics is Russell's (1903) "All Mathematics is Symbolic Logic."[46]



> Intuitionist definitions


> Intuitionist definitions, developing from the philosophy of mathematician L. E. J. Brouwer, identify mathematics with certain mental phenomena. An example of an intuitionist definition is "Mathematics is the mental activity which consists in carrying out constructs one after the other."[44] A peculiarity of intuitionism is that it rejects some mathematical ideas considered valid according to other definitions. In particular, while other philosophies of mathematics allow objects that can be proved to exist even though they cannot be constructed, intuitionism allows only mathematical objects that one can actually construct. Intuitionists also reject the law of excluded middle (i.e., {\displaystyle P\vee \neg P}{\displaystyle P\vee \neg P}). While this stance does force them to reject one common version of proof by contradiction as a viable proof method, namely the inference of {\displaystyle P}P from {\displaystyle \neg P\to \bot }{\displaystyle \neg P\to \bot }, they are still able to infer {\displaystyle \neg P}\neg P from {\displaystyle P\to \bot }P\to \bot . For them, {\displaystyle \neg (\neg P)}{\displaystyle \neg (\neg P)} is a strictly weaker statement than {\displaystyle P}P.[47]



> Formalist definitions


> Formalist definitions identify mathematics with its symbols and the rules for operating on them. Haskell Curry defined mathematics simply as "the science of formal systems".[48] A formal system is a set of symbols, or tokens, and some rules on how the tokens are to be combined into formulas. In formal systems, the word axiom has a special meaning different from the ordinary meaning of "a self-evident truth", and is used to refer to a combination of tokens that is included in a given formal system without needing to be derived using the rules of the system.



На интуиционистские определения всем насрать а логистические устарели давным давно, методом исключения получаем

> the science of formal systems

174 2087054
>>087031

> Гугол


> вместо википедии как на скрине


> с левым сайтом


Ммм, мне было лень открывать википедию конда делал скрин но вот тебе цитата из английской вики:

> Three leading types


> Three leading types of definition of mathematics today are called logicist, intuitionist, and formalist, each reflecting a different philosophical school of thought.[44] All have severe flaws, none has widespread acceptance, and no reconciliation seems possible.[44]



> Logicist definitions


> An early definition of mathematics in terms of logic was that of Benjamin Peirce (1870): "the science that draws necessary conclusions."[45] In the Principia Mathematica, Bertrand Russell and Alfred North Whitehead advanced the philosophical program known as logicism, and attempted to prove that all mathematical concepts, statements, and principles can be defined and proved entirely in terms of symbolic logic. A logicist definition of mathematics is Russell's (1903) "All Mathematics is Symbolic Logic."[46]



> Intuitionist definitions


> Intuitionist definitions, developing from the philosophy of mathematician L. E. J. Brouwer, identify mathematics with certain mental phenomena. An example of an intuitionist definition is "Mathematics is the mental activity which consists in carrying out constructs one after the other."[44] A peculiarity of intuitionism is that it rejects some mathematical ideas considered valid according to other definitions. In particular, while other philosophies of mathematics allow objects that can be proved to exist even though they cannot be constructed, intuitionism allows only mathematical objects that one can actually construct. Intuitionists also reject the law of excluded middle (i.e., {\displaystyle P\vee \neg P}{\displaystyle P\vee \neg P}). While this stance does force them to reject one common version of proof by contradiction as a viable proof method, namely the inference of {\displaystyle P}P from {\displaystyle \neg P\to \bot }{\displaystyle \neg P\to \bot }, they are still able to infer {\displaystyle \neg P}\neg P from {\displaystyle P\to \bot }P\to \bot . For them, {\displaystyle \neg (\neg P)}{\displaystyle \neg (\neg P)} is a strictly weaker statement than {\displaystyle P}P.[47]



> Formalist definitions


> Formalist definitions identify mathematics with its symbols and the rules for operating on them. Haskell Curry defined mathematics simply as "the science of formal systems".[48] A formal system is a set of symbols, or tokens, and some rules on how the tokens are to be combined into formulas. In formal systems, the word axiom has a special meaning different from the ordinary meaning of "a self-evident truth", and is used to refer to a combination of tokens that is included in a given formal system without needing to be derived using the rules of the system.



На интуиционистские определения всем насрать а логистические устарели давным давно, методом исключения получаем

> the science of formal systems

175 2087060
>>087050
Увлечение это то чем занимаются на досуге ради себя же. Оно не обязательно имеет практическую цель.
А в твоем случае судя по всему есть лишь практическая цель.
176 2087090
>>086968

>На технических специальностях эту роль более чем полностью выполняет матан.


Разве от него наоборот не тупеют?
177 2087095
>>087090
В социальном плане, разве что. От дроча на формулы.
178 2087100
>>087054
Что же ты не прикрепил следующий подраздел?

>Several authors consider that mathematics is not a science because it does not rely on empirical evidence.


>The opinions of mathematicians on this matter are varied.


>In practice, mathematicians are typically grouped with scientists at the gross level but separated at finer levels. This is one of many issues considered in the philosophy of mathematics.


хотя от неироничных ссылок на википедию уже не смешно
179 2087108
>>087100
это постирония чел
180 2087115
>>087108
уже не модно, только новая искренность, только хардкор
181 2087126
>>087115
тогда это уже постискренность и постхардкор так как искренность и хардкор уже были
182 2087241
>>087054

> На интуиционистские определения всем насрать


Всем пориджам? Чего вы тут устроили, дегенераты? Мочухан, чисти вилкой эту срань.
183 2087270
>>087241
Всем кто умеет считать до 2.
А так да, тред засрали. Где моча с вилкой?
184 2087272
>>087270

> Всем кто умеет считать до 2.


Причем тут это к интуиционизму?
185 2087277
Здарова ai, какая вилка на джуна deep learning в Украине? Всем добра
186 2087346
>>086432
Дети маугли - по большей части фейки, придуманные ради донатов и классов.
187 2087350
Чет горит с гугловского плюсового кода, все таки чувствуется туда понабирали олимпиадников с задачами про люки, такой оверинжиниринг везде, ну и конечно зоопарк систем сборок, базель это нечто, он конечно работает, но каждый день собирать с нуля, потому что кэширование работает только до выключения компа, это конечно пушка. Не, я понимаю что у них билдсерверы и все дела, но все же.
188 2087355
Кто нибудь уже натренировал решение абукапчи?
189 2087365
Н петух и этот тред решил в засранный интуиционизмом толчок превратить
14385226190460.jpg60 Кб, 1024x768
190 2087370
У меня есть последовательность токенов предложения и есть одно слово из этого предложения.
Как мне получить позицию токена, соотвествующего этому слову в предложении?
191 2087371
>>087370
А исходное предложение у тебя есть?
192 2087373
>>087371
Да, есть.
Используется bert модель.
193 2087426
>>086431

>ГПТ это чистый интеллект, не обремененный собственным я, инстинктами, мотивацией, самосознанием


>чистый интеллект


>не может решать вышмат


Фи, какой же это интеллект тогда, просто генератор наиболее вероятных фраз.
1575271892399.png139 Кб, 250x250
194 2087432
>>087426

>не может решать вышмат

195 2087433
>>087432
Да даже студентик прогерского вуза сможет ломать матан так, как это ни одна нейросетка не сделает. Тексты генерировать и тупая пизда может, начитавшись любовных романов.
196 2087435
>>086352
ну, чтобы он ехал в гта по видеоинпуту это нихуя не просто. А вот машинку как в гта 1 с видом сверху - можно запилить.
197 2087438
>>087433

>Да даже студентик прогерского вуза


Это где-то 10-15 лет обучения, верно? 95% людей в матан не могут.

> Тексты генерировать и тупая пизда может, начитавшись любовных романов.


При этом у тех же технарей с этим обычно огромные проблемы.
198 2087482
>>087438

> Это где-то 10-15 лет обучения, верно?


Ну я например уже на первом курсе знаю саму базу вышмата - комплексные числа, ряды, интегралы, дифференция, матрицы и операции с ними. И все это за две сессии по 3 недели так как я на заочке и между ними пинаю хуи.

> 95% людей в матан не могут.


Слишком мало взял, на самом деле среди всех людей в матан не могут куда больше. Даже в пределах моей группы и групп друзей со школы в матан могут около половины, остальные либо с долгами и уходят после нескольких курсов, либо покупают решение. Так что там минимум 98% не могут по крайней мере в вышмат, а в обычный матан возможно даже больше половины.

> При этом у тех же технарей с этим обычно огромные проблемы.


Гуманитариев и технарей нет, ты хоть бумаги в пдфах у исследователей того же ии читал? Гуманитариев придумали чтобы не обзывать людей тупыми открыто, и текст написанный тп после пары тройки романов будет как говно. И чем дольше тем хуже, ведь логика и композиция текста будет постоянно нарушаться. Для любого текста на 20+ страниц нужно быть чистым технарем и помнить все что ты писал, помнить и добавлять мелкие детали, соблюдать структуру и так далее.
А грамматика это технарское говно более чем полностью, возьми текст любой тп или двощера или меня и там будет ошибка на ошибке, то запятые не там, то форма не та, то склонение и так двлее.

мимо
199 2087491
>>087482

>Ну я например уже на первом курсе знаю саму базу вышмата


Молодец, но можешь ли ты переводить с китайского?

>И все это за две сессии по 3 недели


Ну ты забыл посчитать школьное обучение математики, без которого ты бы это не осилил.

>Так что там минимум 98% не могут по крайней мере в вышмат


Тем более.
Просто возникает смешная ситуация, когда людей меряют по представителями с лучшими навыками, и обощают это как будто человек в целом умнее специализированного ИИ.

>Гуманитариев и технарей нет


Похуй, прогрммисты редко могут сочинить нормальный текст.

> Для любого текста на 20+ страниц нужно быть чистым технарем и помнить все что ты писал, помнить и добавлять мелкие детали, соблюдать структуру и так далее.


Вообще на это всем насрать, любой крупный писатель путает цвет глаз и имена ГГ.
200 2087508
>>087491

> Молодец, но можешь ли ты переводить с китайского?


с японского но на слух или с романдзи

> Ну ты забыл посчитать школьное обучение математики, без которого ты бы это не осилил.


Там хватило бы и 9 классов, в 10 и 11 как помню в основном повторение и объяснение что эта хуйня была упрощением этой. А 9 классов есть почти у всех. Хотя в целом 9 лет тоже не мало.

> Просто возникает смешная ситуация, когда людей меряют по представителями с лучшими навыками, и обощают это как будто человек в целом умнее специализированного ИИ.


> человек в целом


В принципе это так и есть если брать человечество в целом как коллективный разум. Тот что был в эксперементе где фермерам предложили угадать вес быка и средняя оценка оказалась ближе любой частной. А если брать выборку из лучших представителей и их среднюю оценку по регрессиям то там превосходство по качеству над любым одиночным ии даже не оспаривается, хотя по скорости просадка, это да.

> Похуй, прогрммисты редко могут сочинить нормальный текст.


Как и не программисты в целом то. Доля исключений примерно одинакова так что разделять не стоит.

> Вообще на это всем насрать, любой крупный писатель путает цвет глаз и имена ГГ.


Мелкие ошибки возникают из за человеческого фактора же. Не писатели путают куда более крупные вещи вроде фактов и причинно-следственных связей.
201 2087708
>>086910

>Кста, что скажешь по поволу маняматики, она наукой фактичекски не является, это признают даже именитые матанопетухи.


Она не является наукой по Попперу, а в остальном это вопрос бессмысленный.

>>086933

>Программистики к науке отношения не имеют


Этот шарит.

>>087031

>Блииин, а английский гугл отвечает, что математика — не наука((( Англоязычным гуглом больше людей пользуется, значит, правда написана(((


Под science пиндосы обычно понимают только естественные науки. Да, это даже на пикриле написано.

>>087054

>На интуиционистские определения всем насрать а логистические устарели давным давно, методом исключения получаем


>> the science of formal systems


Математика всегда шире любых формальных систем. Формалистский подход тоже себя не оправдал.

А вообще, математика -- это теория чисел.
202 2087710
>>087708

>А вообще, математика -- это теория чисел.


Бесполезное говно в общем.
203 2087714
>>087708
Два чаю, наконец то адекват итт.
204 2087740
205 2087795
>>087708

>а в остальном это вопрос бессмысленный


Как государство должно финансировать науку, если непонятно, что является наукой, а что нет?
16249795833540.jpg192 Кб, 1920x1080
206 2087803
Мне кажется или до AGI остался год или два? Нейронки уже решают гигантский объём задач, вытесняют человека везде, мышиное зрение ебашит. Надо буквально решить простенькую задачу по объединению всех этих нейронок и готов профессиональный специалист по всем вопросам.
Но почему многие ретарды из отрасли говорят, что до AGI ковылять ещё минимум десять лет?
2021-06-15 210456.png66 Кб, 968x911
207 2087833
>>087426
>>087432
>>087433

> не может решать вышмат


> вышмат


брух
208 2087838
>>087833
Ну, не хуже чем двачеры решающие задачку для 5-классников порвавшую интернет.
209 2087858
>>087838

>3 + 3 + 3 = 6


Хуже, мань, хуже
>>087803
Программное обеспечение решающее гораздо больший объём задач уже какой десяток лет существует, а бредогенераторы те же с девяностых пилят, причём тут AGI вообще. Для AGI ковылять не десять лет, а намного больше и вообще в другом направлении похоже.
210 2087871
>>087858

>Хуже, мань, хуже


Так и двачеры в 66% решают неправильно.
211 2087876
>>087803
Как же задолбали шизы итт, которые считают нейронки интеллектом.
Нейронка - это просто алгоритм по выполнению определенной задачи, который умеет повышать свою точность на большом объеме входных данных. Все. Больше там нет никаких скиллов абсолютно. Отнимите у нейронки пентабайты вливаемой инфы, примите пару законов о защите интеллектульной собственности от нейронок и они сдуются в ноль т.к. ничего из себя не представляют. Если взять какой-то простой алгоритм и оттачивать его за счет миллиардных вложений и украденной интеллектуальной собственности, то получится ничуть не хуже нейронки.
212 2087879
Наука — деятельность, направленная на получение нового знания. ИТТ занимаются хуюкой.
213 2087929
>>087508

>В принципе это так и есть если брать человечество в целом как коллективный разум


Ну клево, один умеет считать матан, другая писать тексты и вроде как человечество умеет все. Но когда разные нейронки умеют разное, это им почему-то не засчитывают, а требуют чтобы одна непременно умела все.
16253194493853.png233 Кб, 640x845
214 2087931
Напомните, почему вообще какие-то пориджни определяют, что есть наука, а что нет? Куда вы лезете, школуйня? И идите уже срать в другое место.
215 2087975
>>087931
Потому что им на курсах Гикбрейнс сказали, что они -- великие дотасаентисты -- интеллектуальная элита человечества, создающая дивный новый мир!
216 2087989
https://www.youtube.com/watch?v=ACKnrECORG4
Анальники, не стыдно лишать работы художников?
217 2088009
>>087989
Однотипные художники для себя открыли, что их ИСКУССТВО просто ремесло с задрачиванием паттернов?
218 2088042
>>078723
есть ебля с дурой этой?
219 2088047
Дорогие, пилите успешные истории переката и бэкграунд перекатившихся
220 2088071
>>087710

>Бесполезное говно в общем.


Бесполезное говно это ты.

>>087714

>Два чаю, наконец то адекват итт.


Спасибо.

>>087795

>Как государство должно финансировать науку, если непонятно, что является наукой, а что нет?


А я вот не знаю. Это ужасно сложный многоаспектный вопрос, на который, видимо, никакого конкретного правильного ответа вообще быть не может.

Потому что наука это не сбор урожая в поле и не точение напильником гаек в цеху. В ней очень сложно, если вообще возможно, выделить адекватные метрики, по которым можно было бы оценивать целесообразность и продуктивность конкретных исследований.
Вот придумали индекс Хирша -- получили проблему "Publish or Perish", т.е. кучу бессмысленных статей с кучей ошибок и невоспроизводимых результатов, а также картельные сговоры внутри научных групп.
А начнёшь реальными исследованиями заниматься -- сразу начнёшь отставать по публикациям, придёт чиновник и скажет, чтоб ты валил из академии, так как "неэффективен".
Оно не всегда так происходит, конечно, но гораздо чаще, чем хотелось бы.
Ну а уж если тема исследований касается социально и политически значимых областей, особенно в эпоху ублюдочной левацкой повесточки на Западе, то об объективности вообще говорить не стоит -- результат "исследований" всегда будет такой, какой нужен власти и корпорациям.

В любом случае, вопрос о финансировании науки должен решаться внутри научного же сообщества, а не в высоких кабинетах власти. И решать его должны признанные специалисты в своих областях, а не чиновники.

Если же мы про математику говорим, то она, к счастью, к политоте не относится (хотя ублюдки-леваки и тут смогут что-нибудь "угнетающее" придумать), а также она ужасно дешёвая.
Ну а если у государства не хватает денег на мел и бумагу, то тут уж нужно вопросы предъявлять к этому государству, а не к математике.
221 2088094
>>088071
Этот маняматик подгорел. Когда вас уже на самообеспечение выгонят?
222 2088105
>>088071

>Потому что наука это не сбор урожая в поле и не точение напильником гаек в цеху


Наука без производства превращается в иллюзии.
223 2088120
>>088042
Сгенерируй дипфейком.
224 2088132
>>088071

>Это ужасно сложный многоаспектный вопрос


"Ужасно сложным многоаспектным" он стал только после рейгана и войны республиканцев с наукой, до этого учёным просто давали денег сколько попросят и всё норм работало. Им много и не надо обычно если речь не идёт о крупных разовых проектах которые можно обсуждать отдельно, просто давать денег без всяких отчётностей и есть по видимому самый лучший способ, ибо любая бюрократия и прочие метрики превращаются в профанацию.
225 2088139
Почему у ебучих сис аналеров и дата аналеров в банке зп выше, чем у нас? Это же долбоебы, долбящие пандас просто
226 2088150
>>088139
Они выдают понятные бизнесу метрики, которые приносят деньги
227 2088155
>>088139

>чем у нас?


Потому, что мы бесполезное говно не имеющее ни к науке ни к бизнессу никакого отношения.
228 2088160
>>088139

> в банке зп выше, чем у нас?


а когда твой мл принес бизнесу денег больше чем бизнес в него убухал?
229 2088177
>>088150
Какие там нахуй метрики? Churn rate/arpu? Пузырь раздули из долбоебов
230 2088227
>>088139
ну не хуй и больше, если ты ебашишь в том же банке
вилки обычно (2-4 года опыта) - 150-250 gross

втб со сбером продолжают набирать дебилов после скиллбокса на 120 чистыми
231 2088298
>>088150
+
Умный человек на аналитике куда полезнее для бизнеса, чем узконаправленный додик который только сетки дрочить и может
232 2088337
Я тут задумался, а почему нет мидендов?
Сейчас большинство исследователей нейронок которые делают свои и публикуют обученные модели практически никогда не оптимизируют их с помощью сторонних исследователей, как правило там как в том же недавнем simswap те же методы в коде что и десять лет назад были в обиходе. Тот же madgrad от фейсбука охуенен и ускоряет обучение в разы, ncnn позволяет взять обученную торчевую модель и конвертировать ее в модель которая запускается на всем что поддерживает vulkan, и дохуя подобных примеров которые как будто в вакууме с некоторыми исключениями.
Или фортенды, которые прячут под копот большую часть фич потому что не хотят с ними заморачиваться или хотят упростить конечный вид. К тому же даже так постоянно всплывают ошибки, и они всегда критичнее так как повлиять или хотя бы узнать о них подробнее нельзя.

Разве не очевидна необходимость в мидендах, которые будут брать код от бекенд гениев, подчищать их ошибки и вводить новые фичи основанные на актуалочке, и которые бы сделали минимальный гуи для фортендов чтобы у них было полное понимание возможностей советы.
Сейчас по сути эту роль за исключением передачи фортендам исполняет кучка левых людей от народа, взять тот же тред про simswap с колабами, кагглом и гуи от анониев, но среди них как правило мало профессионалов и конечный продукт от народа редко доходит до авторов (по крайней мере в хорошем смысле).

Так почему сейчас только бэкенды и фортенды без связующего звена?
233 2088413
>>088337
Мне вообще кажется что все портянки питоноговна сильно переусложнены по сравнению с реальными процессами которые там происходят на самом деле.
234 2088414
>>088139
Аналитики анализируют существующие, актуальные данные и получают релевантные результаты, МЛеры тренируют сетки на синтетике и выдают нерабочий продукт.
235 2088620
>>088094

>Этот маняматик подгорел.


А по сути есть что сказать? Или тебе лишь бы хоть что-нибудь высрать?

>Когда вас уже на самообеспечение выгонят?


Прямо перед тем, как вас выгонят на улицу. Хотя, конечно, макаки всегда нужны.

>>088105

>>Потому что наука это не сбор урожая в поле и не точение напильником гаек в цеху


>Наука без производства превращается в иллюзии.


Как вообще связаны эти два утверждения?
Моё утверждение было в том, что в науке, просто в силу её природы, практически нереально придумать адекватные метрики эффективности и целесообразности, а не в том, что практические приложения не нужны.

>>088132

>"Ужасно сложным многоаспектным" он стал только после рейгана и войны республиканцев с наукой


Я не знаю, что с наукой сделали Рейган и республиканцы, но в данный момент её уничтожают леваки, которые себя почему-то называют "демократами". Леваки вообще уничтожают всю цивилизацию.

>просто давать денег без всяких отчётностей и есть по видимому самый лучший способ, ибо любая бюрократия и прочие метрики превращаются в профанацию.


Возможно, вполне. Но в таком случае нужно в среднем повышать требования к научным сотрудникам в смысле сложности защиты диссертаций, как минимум. В хороших местах они и так высокие, а вот в говновузах защититься может любой идиот, а просто так раздавать деньги таким персонажам -- хреновая идея.
236 2088711
>>088139
Потому что аналитик с экселем может быть полезнее бизнесу, чем твой чёрный ящик.
237 2088755
>>078573 (OP)
Я заранее извиняюсь за очень неофитский вопрос, возможно я даже не по адресу.
Есть один mcl (markov clustering) алгоритм https://github.com/guyallard/markov_clustering который группирует точки на графах. В примере указано что точки на графах генерируются по координатам. Вопрос: как можно сгруппировать строки / получить точку координат со строки? Я подумал вначале считать сумму char символов, но сразу же понял что это бред получается.
Стек у меня совсем другой (не питон и нейронки) если что.
238 2088819
This work trains a machine learning model to solve machine learning problems from a University undergraduate level course. We generate a new training set of questions and answers consisting of course exercises, homework,and quiz questions from MIT’s 6.036 Introduction to Machine Learning course and train a machine learning model to answer these questions. Our system demonstrates an overall accuracy of 96% for open-response questions and 97% for multiple-choice questions, compared with MIT students’ average of 93%, achieving grade A performance in the course, all in real-time.
https://arxiv.org/pdf/2107.01238.pdf

Если студенты MIT отвечают хуже нейронки, то почему вкатыши со скиллбокса или этого треда до сих пор котируются?
239 2088837
>>088819

>студенты MIT


Орнул, еще бы с детсадом сравнил.
240 2088841
>>088819
Не всё сразу. Инертность мышления, вот это всё. Алсо, прогресс слишком быстрый в этой теме. Внедрение гораздо больше времени занимает. Ну и другие, менее очевидные факторы. Но уже сейчас можно с уверенностью сказать, что пориджи очень эпично соснули, в обозримом будущем они как минимум в айти нахуй не нужны будут.
241 2088843
>>088841

>в обозримом будущем


Вот трясунишку ящиков понесло. Смешные котики всех заменят?
242 2088855
>>088819

>почему вкатыши со скиллбокса или этого треда до сих пор котируются?


Они не котируются
243 2088881
Привет, жопеншмульцеры.
Подскажите, пожалуйста, как BERT'ы и прочие трансформеры поступают с длинными текстами?
Тупо обрезают по количесиву токенов или дробят на части? Если дробят, как получить дотсуп к частям?
244 2088891
>>088881
Первое, все что выше длины их модели они либо игнорируют, либо выдают ошибку.
245 2088910
>>088177

>Churn rate/arpu


Это уже больше чем средний МЛщик может единственная полезная штука, которую я видел это банковские чат-боты, которые на техподдержке экономить позволяют.
246 2088974

>>208888


1) уже ответили
2) фор лупом
247 2089924
Если сеточка хорошо сходится на тренировочном сете и плохо на тестовом -- это мне нужно увеличивать сет? Или еще что-нибудь может быть?
248 2090000
>>089924
Или уменьшать экспрессивность модели. Или искать лик в данных. Или смотреть, из одного ли распределения тест и трейн. Или добавлять аугментаций.
Но добавить данных всегда полезно.
249 2090143
>>085801
гмурман
250 2091191
Там глубокомозговые улучшили трансформеры до уровня йобатрансофрмеров.
https://arxiv.org/abs/2103.03206

Есть неофициальный код на путорче
https://github.com/louislva/deepmind-perceiver

Что думаете?
251 2091488
>>091191
Ну хоть эта ебулда в OCR AMS-TeX может? Я вообще не очень понимаю, в чем проблема. Это же не рукописный текст, любой символ абсолютно однозначно соответствует своему ТеХ коду и визуализируется всегда одинаково. Правила построения любой формулы так же однозначно заданы. На сверточных сетях нихуя не сделали, может быть хоть с трансформерами это можно?
252 2091524
>>091191
примеры давай
253 2091571
Сегодня шел мимо книжного рынка и прикупил книгу Вапника "Восстановление зависимостей по эмпирическим данным" (1979), чисто чтобы читать в транспорте. Не думаю, что она особо устарела для своих задач, но может кто читал и сравнивал с чем-то современным?
254 2091790
>>091571
Вапник - старый поехавший дед с синдромом утёнка.
255 2091808
>>091790
Дык мне как-то похуй на его личность, я-то книжку буду читать, а не с ним брататься.
256 2091841
>>091790

> Вапник - старый поехавший дед с синдромом утёнка.


Зато рандомный поридж без мозгов с мейлру - гений, я тебя услышал.
>>091571
Там нечему устаревать, просто это ранняя стадия развития теории статистического обучения.
257 2091931
>>091790

>Вапник - старый поехавший дед с синдромом утёнка.


Пук среньк неосилятора.
258 2092545
Какой критерион и оптимизатор надо использовать, чтобы обучить чисто свёрточную нейросеть?
Генерирую датасет в блендере, хочу, чтобы создавало маску некоторых простых предметов на фотографии. Например, крестиков, квадратиков, сеточек.
259 2093318
Сук, mediapipe 0.8.4 работал а 0.8.6 уже нет.
260 2093335
>>093318
Откатись на 0.8.4 же.
261 2093344
>>093335
Да откатился за полдня, так вкусных плюшек то не получу, а бисектить тааак лень
262 2093369
>>093335
Ах да и откатиться уже не получилось в чистую, так как bazel успели поменять :3
263 2093772
Захожу короче в ODS, читаю крайнюю объяву и вижу охуенный панчлайн:
Важно!
Мы не берем сейчас в команду джунов (пока растим текущих)


НУ, КАК ВКАТИЛИСЬ?!
264 2093871
>>093772
усё, лавочка прикрылась
265 2094073
>>093772
Сейчас поток упругих пориджей хлынул из вузов на рынок труда. Сезонность.
266 2094123
>>094073
Как морковка?
267 2094128
https://2ch.hk/b/res/250626702.html (М)
Вот ради чего нужны были все эти ваши ии
268 2094244
Я прошел курс "Введение в Data Science и машинное обучение", теперь знаю, что такое решающие деревья и Random Forest. Чем дальше посоветуете заняться?
269 2094246
>>093772
Не может быть... компания из двух с половиной землекопов ищет мидла/сеньера и не ищет джуна.
Всё, джуны больше не нужны.
270 2094253
>>094073
Чем они в вузе вообще занимаются? Смотрю авторов самых популярных учебников по имплементации МО в Пайтон (Рашка и соавтор, А. Герон) - они вообще по образованию биологи или инженеры. Тем не менее, смогли выйти на уровень. Почему же тогда чуваки с профильным образованием не могут сразу же после выпуска соответствовать большинству требований?
271 2094269
>>094244
Tensorflow вдоль и поперёк
272 2094271
>>094246
А на хуй вообще нужен джун ML'щик. ML это такой чувак, который на себе должен в одиночку целый огромный раздел тянуть. Зачем нужен джун на этой должности? А на самом деле всё просто: набираешься ML-опыта не на ML-областях. Устроился работать программистом, предложил свои скиллы, чтобы укрепить ML-позиции компании и норм
273 2094275
GPU при прогоне датасета почему-то используется не полностью и простаивает местами.
С чем это может быть связано?
274 2094279
>>094271

>А на хуй вообще нужен джун ML'щик.


Чтобы делали всё то, что обычно делают джуны. Рутинную работу вроде подъема старых проектов, экспериментов, реализации статей, сбора данных. В крайнем случае можно посадить рисовать дашборды.

>ML это такой чувак, который на себе должен в одиночку целый огромный раздел тянуть.


Это сработает только в узкоспециализированных стартапах, делающих один продукт, в который нормально мл не внедрить. И даже там найдётся какой-нибудь антифрод, который в одного поддерживать нереально.

>>094275
Попробуй больше процессов выделить на чтение данных. Наверняка гпу простаивает в ожидании следующего батча из датасета.
Стикер127 Кб, 500x500
275 2094282
>>094279

> в ожидании следующего батча из датасета


А батч повис на i/o на 5200 rpm HDD
276 2094471
>>094282
Еще десять процессов выделить, и тогда ух как пойдет!
277 2094472
Сап, двач. Мимо бэкендер на ява. Можно ли выучить машоб и применять его как дополнение к основной работе без свича из отрасли бэка?
278 2094474
>>094472
как и зачем? мл это не золотой молоток
279 2094477
>>094474

Не знаю, ищу себя. Впадаю в депрессию, ощущая что пишу клей
280 2094502
>>094472
Питоний любом случае изучить придется.
image.png1,2 Мб, 951x1167
281 2094619
>>094244
Устраивайся в пятерочку
282 2094632
>>094477
Тебе надо вне работы заниматься чем-то что не связано с сидением за компом.
283 2094737
Покидайте задачки по аналитике, в яндекс собеседуюсь.
284 2094924
>>094474

Двачую этого. Мимо синьор помидор бэкенд пхп. Сказали что на работе нужно МЛ прикрутить, мне и еще двум челам кабанчик оплатил курсы, ща учимся потом ебашить будем.
285 2094976
В следующем году мне предстоит защищать диплом. Не так давно начал интересоваться нейросетями, пока что опыта в этом никакого нет. Может, кто-нибудь здесь подкинет идей для темы диплома, связанной с нейросетями? Что-нибудь такое, что можно будет реализовать в одиночку за несколько месяцев.
286 2094992
>>094976
Как на счет темы иользования нейронок для написания диплома? Как минимум тот кто будет проверять прихуеет.
287 2095113
>>094253

>Почему же тогда чуваки с профильным образованием не могут сразу же после выпуска соответствовать большинству требований?


Потому что зачастую это неспособные ни на что дебилы, попёршие в айтишечку просто потому, что там хорошие денежки платят.
288 2095115
>>094244
Теорией статистического обучения Вапника-Червоненкиса.
289 2095123
>>094253

>Почему же тогда чуваки с профильным образованием не могут сразу же после выпуска соответствовать большинству требований?


Потому что в вузике не учат разрабатывать реальные приложения, а дрочат теорию без объяснения зачем все это нужно и как правильно применять отмахиваясь требованиями написания говнокурсовых и говнолаб, где ты отчеты пишешь больше чем сам код.
290 2095130
Поясните, loss.backward раньше выполнялся 2 раза в секунду, теперь раз в 45 секунд. На cpu и gpu время стало почти одинаково, код тот же что и был, загрузку gpu, если на нем, показывает вместе с загрузкой видеопамяти как и должно (100% и 8.6гб). Еще если на gpu то загрузка у cpu тоже полная.
Это в торч завезли новую фичу что когда указываешь device = 'cuda:0' он так же использует cpu, или что то менее очевидное и проеб мой?
16253194493853.png233 Кб, 640x845
291 2095270
>>095123

> Потому что в вузике не учат разрабатывать реальные приложения, а дрочат теорию без объяснения зачем все это нужно


А что, поридж не может понять, как использовать теоретические знания на практике?
292 2095336
>>095270
Никто не может, порриджи - такие же люди, как и ты.
293 2095339
>>094924
Придется пыхомонолит на микросервисы пилить, чтобы мл встроить.
294 2095432
>>095270

>А что, поридж не может понять, как использовать теоретические знания на практике?


Это ты сейчас так говоришь, когда тебе говорят про очередную абстракцию и ты сразу прикидываешь где ее можно вставить в проекте, а в вузе тебе рассказывают про очередной паттерн "боевой вертолет" вперемешку с UML схемами, а применишь ты это через через пару лет и вся мотивация проебывается.
295 2096243
Как правильно брать срезы тензора?
Например, есть a = tensor[3, 15,30]
Мне надо взять срез по 0 измерению в зависимости от индекса.
Делаю a[1,:,:], а он мне tensor[15,30].
Куда нулевое измерение делось?
296 2096260
>>096243
Это размерность. Взяв нулевое измерение по сути ты получил одномерный тензор и количество измерений (равное единице но в питоне нулю) в начале не пишется. То есть у тебя матрица размерности [15,30].
писал же в соседнем треде неделю назад
297 2096273
>>096260
>Взяв нулевое измерение
По индексу, правильно?

>ты получил одномерный


Может двумерный?

>То есть у тебя матрица размерности [15,30].


Единицу туда можно вернуть через torch.unsqueeze? Чтобы стало [1,15,30]? И вообще, стоит ли это делать?
Результат для torch.mean([1,15,30], dim=1) и torch.mean([15,30], dim=0) одинаковый будет?

>писал же в соседнем треде неделю назад


Возможно.
Извиняюсь, тут хлопот много, всё не запомнишь.
298 2096295
>>096273

> По индексу, правильно?


> Может двумерный?


Чуть проебался, да. Тензор единичной размерности с двумя измерениями.

> Единицу туда можно вернуть через torch.unsqueeze? Чтобы стало [1,15,30]?


Он и есть [1,15,30]. torch.unsqueeze вставляет единицу в размерность в определенное место сколько угодно раз и меняет вид тензора.

> И вообще, стоит ли это делать?


В некоторых случаях.

> Результат для torch.mean([1,15,30], dim=1) и torch.mean([15,30], dim=0) одинаковый будет?


[1,15,30] и [15,30] одно и тоже, но вот dim = 0 даст среднее по измерениям, dim = 1 у одноразмерного тензора даст тот же тензор а dim=2 даст среднее по столбцам.

Так то все можно делать просто введя в консоли python потом import torch и x = torch.rand([1,15,30]) и уже с ним играться.
299 2096346
Поясните за торч-лайтенинг и автоподбор гиперпараметров, брат жив?
300 2096495
Здоров пацаны. Заскочил к вам на чаек. Сам веб макака. Но подумываю вкатиться в нейроночки эти ибо заебал веб. Как думаете игра стоит свеч? Зарплаты как в индустрии?
301 2096520
>>096295
Спасибо.
303 2097021
>>096981
Ну и позорище
304 2097092
>>096981
Матанопетух пытается в филосрфию
305 2097223
>>096495
Хайп падает, котики и бредогенераторы уже не удивляют
16264271465100.jpg181 Кб, 1521x1237
306 2097598
>>097223

> пок пок


Мань, в ближайшие лет 5 запилят автоматический рилтайм переводчик на Ютубе, любой контент, хоть старый, хоть только что выложенный, будет автоматом сразу же доступен на любом языке. Трансформеры уже прямо сейчас, когда ты кукарекаешь тут, на мейлру, стирают языковые границы.
Untitled.png33 Кб, 2038x888
307 2097630
>>097598

>Трансформеры уже прямо сейчас, когда ты кукарекаешь тут, на мейлру, стирают языковые границы.


Только инвесторов это не впечатляет.
308 2097634
>>097630

> Рубли


кек
309 2098027
>>097598

>Яндекс


Я пробовал их speech-to-text юзать. Лютая хуйня, которая даже русский язык распарить не может, когда пытался текст из заседаний суда вытащить.
310 2098041
>>098027
Дело не в Яндексе, а в том, что уже сейчас ставятся такие задачи. Разумеется, рабочее решение будет от Гугла, Амазона или ещё какой нормальной конторы.
311 2098051
>>098041
И что что ставятся? Гугл вот уже сколько лет заставляет пару миллиардов макак светофоры на капче различать, а сами не могут нейросетку точную написать под это.
312 2098060
>>098051
В огороде бузина, а в Киеве дядька... Причем тут светофоры к машинному переводу, только одному тебе аутисту понятно.
313 2098136
>>098060
Это я к тому, что постановка задачи вовсе не гарантирует результат
314 2098257
>>098136
Результат уже есть, алло. Ты поридж что ли?
315 2098380
>>098041

>Разумеется, рабочее решение будет от Гугла, Амазона или ещё какой нормальной конторы.


Хули ж тогда Гугол сосёт у Яндекса в поиске по картинкам?
568484.png11 Кб, 413x379
316 2098912
Джуны тут?
317 2098921
>>098912

> джун


> 3-6 лет


Вашему джуну за 30, он нам не подходит, несите следующего.
йоба.жопеге
318 2099078
Крайне желторотый вопрос: есть идеи что делать если у меня табличка миллион строк на 20 фичей, а мне нужно натренировать на всех данных бустинг (я использую катбуст)? У меня просто ядро моментально крашится при попытке, потому что оперативу всю сжирает модель. Можно ли как-то обучаться последовательно?
Извините что такую глупость спрашиваю, надеюсь кто-то поможет инвалиду.
Спасибо.
319 2099106
>>098912
А сколько бы такому джуну платили? Почему они зп не указывают?
320 2099129
>>099078
Обычно обучение и так последовательно идет ведь никто в здравом уме не будет обучать в один момент на всем. Есть batch size который определяет сколько потоков обучения и куча других гиперпараметров, скорее всего тебе нужно их понизить.
321 2099168
>>099106
Всмысле сколько бы джун доплачивал если бы они его подобрали с переполненного рынка июней? 20-30к в ДС в среднем.
322 2099178
>>099168
Такая толстота унылая.
323 2099249
>>098380
ограничения по поиску из-за авторских прав.
324 2099251
>>099168
>>099178
Я был готов отдать 100-150к чтобы меня взяли на стажировку.
Ординатуры и практики у врачей ведь тоже платные, где студент вынужден давать деньги за то, чтобы его научили.
Так и в мире ИТ должно быть. Какой смысл конторе брать джуна, который полгода будет только в убыток работать?
325 2099260
>>099251
Никто не виноват что ты в пидорахии живёшь. Тем более врачём. На них спрос повыше чем на итишников. И да в нормальных странах врачам оплачивают интернатуру а не наоборот
16237470182160.mp4162 Кб, mp4,
256x256, 0:05
326 2099267
>>099251
>>099260
В Блинолопатии за работу платит работник, а не наоборот? Да вы ж ёбнутые, лол. Такого даже при рабовладельческом строе не было
327 2099277
>>099267
Ну то что интернатуру оплачивают вполне да. Если повезёт то она бесплатной будет
328 2099279
>>099267
А вот в беларуси айтишнегов линчуют вообще сажают!
329 2099308
>>099267
>>099260
Срыночек не тот? А по мне так норм, срыночек порешал, спыночкобляди соснули.
330 2099309
>>099279

>вообще сажают


А они точно госпереворот не хотели устроить, а мирно сидели шлепали круды?
331 2099312
>>099308
Причем тут срыночек если основная мысль что ты пидораха?
332 2099399
>>099312

>основная мысль что ты пидораха


Что в этом плохого? Лучше чем еврочмоха или пиндоха какая нибудь.
333 2099401
>>099399
Не лучше. Еврочмоха хоть уровень жизни имеет
334 2099412
>>099401

>уровень жизни имеет


Домики из говна и палок смытые первым же дождем, ох лол
335 2099419
>>099412

>Сталагмит из говна вошёл в чат

336 2099420
>>099419

>Трясунишка ящика осознал свою никчемность

2197632original.jpg101 Кб, 480x360
337 2099427
338 2099550
>>099427
Хаха, твоя сычевальня, нищий трясунишка?
339 2100043
Почему среди вакансий одни казино (в том числе и скрыто через компании посредники) и банки?
16244335457640.webm407 Кб, webm,
640x360, 0:14
340 2100148
>>098912
Джун - это 1-3 года опыта.
341 2100203
Хеллоу, есть ли для машоба роадмап для россии, как есть у жопошников из js-треда? (https://github.com/acilsd/wrk-fet)

Или подразумеваются что тут все достаточно умные, чтобы понять, что и куда и кому, в отличие от унтерменшей, у которых typeof(NaN) === "number"?
342 2100217
>>100203
Здесь все достаточно умные, чтобы понять: хайп машинлернинга ВСЁ, денег больше нет и вакансий тоже практически нет (кто не верит - прогуляйтесь в ODS, чекните вилки).
343 2100219
>>100043
Потому что только у них есть достаточно денег на такое. Какие-нибудь биологи тоже например хотели бы, но у них денег нет.
344 2100238
>>078573 (OP)
Нейроно-аноны, не могу сам догадаться. Какая есть сфера применения нейросетей или просто классического ИИ в которой можно теоретически получить очень много денег если сделать значительный прорыв в качестве? Оптимизировать электростанции это конечно круто но это уже научная фантастика на самом деле.
345 2100244
>>100238
У тебя ресурсов не хватит
346 2100249
>>100244
Может быть хватит если вложить капитал и создать такое решение которое выгодно. А можно вообще продавать какой-нибудь софт.
347 2100264
>>100238
Ну нейронки обычно используют для оптимизации человеколюдей путем их исключения либо для того чтобы они выполняли роль людей но в незначительных делах. Например использование нейронок для системы рекомендаций, классификации и так далее - все это позволяет крупным дядям платить куда меньше. А для небольших дядь есть вариант сервисов как тот что удаляет фон или нейросетевой переводчик с премиум функциями или прикручивание фич к гпт-3 и создание платного сервиса.
Так что скорее всего у тебя два пути - поискать интересные но загнувшиеся стартапы и оживить из под другим именем, либо придумать сервис/тулзу с премиум фичами. На счет сервиса могу порекомендовать сделать платный сервис по озвучиванию текста, если создашь тот в котором будут как минимум несколько известных голосов на русском и ангельском и сделаешь 2 бесплатных попытки то как минимум потенциал будет. Сейчас с такими сервисами, особенно те где есть русский язык, совсем пизда хотя казалось бы. А если сможешь сделать фичу озвучки из голоса который загрузит пользователь то сможешь даже продавать услуги каким нибудь дядям.
348 2100307
>>100217
Чем тебе вилки не нравятся? Ну поменьше жсомакак, чего такого...
349 2100310
>>100249
Капитал прожиточного минимума? Ну давай, вложи капитал сопоставимый с разработкой GPT-3
350 2100311
>>100217

>Здесь все достаточно умные, чтобы понять: хайп машинлернинга ВСЁ


Вашу ж мать. А я только собрался в ШАД поступать.
Уже не надо, или как?
351 2100313
>>100310

>капитал сопоставимый с разработкой GPT-3


Сколько это?
352 2100331
>>100311
Ты каждого малолетнего калмуниста с ЭС но без мозгов слушаешь и внимаешь?
353 2100353
>>100331

>камунисты мам


А теперь идешь чекаешь число вакансий дата сосанистов и их зарплатные вилки, сравниваешь с нормальными разработчиками, плачешь

>>100311
Разумеется поздно, в 2021-то. Хайп был в 2012-18, тогда нормально было вкатываться. А в 2020 ковид порешал бесполезных фитпредиктов, причем куда жестче чем нормальных разработчиков
354 2100371
>>100249

>нейронки


>софт продавать

355 2100374
>>100313
От лярда деревянных до лярда вечнозеленых

https://habr.com/ru/post/565564/
356 2100405
>>100353

> А в 2020 ковид порешал бесполезных фитпредиктов


Каким образом? И почему именно их? Если они были бесполезные, то какого хрена они вообще работали до ковида?
357 2100436
>>100405
Таким образом, что чудодейственное "предсказание поведения потребителя" и прочий йоба-маркетинг, которое типа продавали бизнесу дата сосатели, оказалось полной хуйней и в 2020 это оказалось совсем наглядно.
358 2100487
>>100436
А кроме йоба-маркетинга вакансий вообще нет?
359 2100503
>>100487
Есть ещё ёбаный рот того казино >>100043
360 2100829
Что думаете про MLOps?
16258757203051.png652 Кб, 680x506
361 2100904
>>100436
Только что-то начинает нравится из айти - оно гибнет нахуй
Пойду джангу дрочить тогда или это тоже мертво?
Мне уже похуй, лишь бы вакансии на джунов были, в одс сидеть просто больно - 500 вакансий на ГИГА-СЕНЬОРА, они типа серьезно надеются найти гига-сеньоров в таком количестве? Я думаю что то что там в требованиях не наберется и у 500 человек на планете, и все они вестимо сидят в сбере, который делает все хуево, у меня от этих несостыковок ДАТАСАЕНЗ начинается
362 2100906
>>095339

> пыхомонолит



Найс ассумпции. На пыхе щас такие же микропомойки пишут
363 2100910
>>100904
Спасибо за кота. Джанга НЕМНОЖКО оверхайпнутая, но помирать пока не собирается - погрузчики джейсонов всегда нужны.

мимо погрузчик
364 2100968
>>100904
Чел, у одса все-таки требования к оформлению жесткие. Какой кабан готов указывать вилку наперед? Это если все так делать будут, что же с нами будет кабаны нахуй так жить???

Поэтому джунских вакансий там нет: найти джуна проще, для этого не приходится идти на сделку с собственной кабаньей совестью. Ищи на хехантере.

Петухов на харкаче не слушай: нихуя не умирает, просто это ммммаксимум тупая работа, макакинг фичей и кривые эксперименты, все выкатываются через год и уходят и разработку/мле/де.
365 2100974
>>100904
В питон дохуя вкатышей. Фласк уже стал асинхронным в отличие от джанги, которую надо переписыватьс 0 чтобы она стала полностью ассинхронной. Вкатывайся сразу в 1с-Битрикс. Потом можно будет на какой-нибудь ларавель перескочить и работать на западного барина.
366 2101005
>>100148
То есть у тебя кастовое общество получается?
Что другие спецы не могут перейти в то же Ойти, потому что требуется опыт, который приобретаетя яерез стажировку, на которую дедов не возьмут.
367 2101012
Короче, выдумал. Есть идея такая - создавать модели, которые людям понравятся. Ну то есть то, в чём считалось ИИ не сможет вообще разобраться. Можно начать в ютубе, включить музыку, продемонстрировать результат какой-нибудь визуализацией и объяснять потом полчаса как работает, что вообще сделал чтобы прийти к этим моделям. Добавить патреон, в котором есть код и процесс работы описывается. Все, конечно, на английском. Это привлекает и ресерчеров, и начинающих и обычный народ. Можно выйти на какую-то популярность. Есть ведь каналы где исследуют алгоритмы или другие науки в общем. ИИ - тема на слуху у всех. У меня есть несколько идей как это сделать но получается нужно подтянуть говорение на ангельском чтобы без ошибок и с минимальным акцентом, купить пеку для обработки и, собственно, выучить обработку. Стали бы такое смотреть? Есть идеи на то как хранить память для сетки, хочу научить её сохранять ассоциации, интерпретировать картины например может, датасет не нужен, ведь есть Викидата.
368 2101017
>>100904
Джанга давно уже мертва и состоит в основном из поддержки говнолегаси, вакансий джунов почти нихуя
369 2101233
>>101005
Это не у меня, это объективная реальность.
370 2101370
>>101012
Какие например модели? В чем по мнению большинства нейронки нихуя не могут?
2021 год на дворе, ау, сейчас большинство видит в нейронках не красноглазую хуиту построенную из костылей и сжирающую электричество с видеокартами даже больше чем майнинг, а всемогущую палочку выручалочку в которую закинь что то и она все сама сделает. И портрет по фотке нарисует и ебальник сгернерирует и музыку напишет и голосом умершего неотличимо поговорит, и вообще все сделает.
Сейчас обычные люди которые связаны с нейронками чуть меньше чем никак ничему не удивятся даже если ты сделаешь нейронку которая побьет лучшую в задаче на 20% и будет более эффективна, никто не удивится если ты сделаешь нейронку которая будет делать что то что умели только люди как та нейронка с удалением фона. А те кто связаны - четверть живет на том что стагнирует развитие нихуя не делая и получая за это деньги и будет на тебя зла ведь есть риск что кабанчики скажут им работать и им придется работать, другая четверть и так загружена по горло и им будет похуй, и половина вкатывается либо это их хобби и от них отметай как минимум половину ведь далеко не каждый готов платить за хобби тем более когда почти наверняка аналог того что будешь предлагать ты уже давно сделали и заопенсорсили.

Как итог твой план это пахать до разрыва жопы каждый день и получать копейки с четверти от и без того небольшого количества людей. Это конечно мое личное мнение и мб я проебался чуть более чем во всем давайте, обосрите гринтекстом, но твой план говно.
371 2101397
>>101370
Ты новенький? ГАНы это не вершина технологического развития.
372 2101433
>>101397
Они наиболее известны и популярны в массах. Настолько что спроси любого про нейронки которые он знает и он назовет от силы парочку ганов даже не зная что это ганы. А все что дальше не считая трансформеров которые совсем немого известны благодаря хайпу у гпт-3 и йоба обещанием клоседХУИ на счет гпт-2 который они выкладывали по частям скорее в бэкендах у дядек либо попросту не идет в массы.
373 2101505
>>101433
Нейроговно не работает, это очевидно, поэтому не нужно
375 2101528
>>101505
Это нейроговно уже может предсказывать структуру белков с идеальной точностью чего не смогли добиться люди за всю историю. Это нейроговно уже может составить карту темной материи во вселенной, генерировать реалистичные лица хотя это скорее для темносерых делишек, менять лица на видео без мильонов денях в хохловуде, делать неотличимый от оригинала голос по тексту, делать кучи вещей за секунды которые люди делали бы несколько дней и так далее.
Это говно имеет огромный потенциал и уже даже реализовало его часть и уже лет 10 работает в проде. Но в массу оно просачивается редко ведь требует огромной доработки напильником даже сейчас.
376 2101566
>>101528
Я же говорю, что бесполезное. Все что ты перечислил, на хуй не нужно.
377 2101583

>Борис Янгель работает в команде беспилотных автомобилей «Яндекса». Мы поговорили с ним о том, нужна ли полноценная интеллектуальность для создания беспилотника, в чем проблема обучения с учителем и почему сырая мощь вычислений постоянно оказывается «серебряной пулей», которая в конечном счете побеждает любые эвристики и специализированные модели.


https://music.yandex.ru/album/12967722/track/85248474
378 2101593
>>101583
2021 год, комровиден петухи не могут решить элементарную задачу автономиквехикуласа, лол. Пттолок нейродебилов это как вон тот анон выше написал, генерить смешных котиков и изменять голос.
379 2101599
>>101566
Тогда что нужно? Или ты из тех кто любит купаться в говне и не верит что завершив рассчет протеинов люди обретут бессмертие?
Давай более прикладные - робопсы, автоматизация контроля производства где нейронки оценивают брак, рассчет теми же нейронками оптимальной архитектуры вычислительных устройств, масштабирование видео в рилтайме, помощь квантовым компьютерам для отбрасывания ненужных вычислений и дохуя другого.
380 2101613
>>101593
Это определитель вероятности на датасете и не более.
382 2101625
>>101599

>Тогда что нужно


Ммм, семантический поиск например, диагностические системы (медициеские технические), автономное управление транспортом. Вот минимум.
383 2101632
>>101625
Но ведь все это уже давно есть на нейросетях. Даже яндекс использует семантический поиск, нейронки уже года два могут в диагностику хотя и слабо, однако они все еще развиваются, а о автопилоте и говорить нечего - теслы существуют тоже не первый год.
384 2101636
>>101632

>все это уже давно есть на нейросетях


Нет, нету.

>Даже яндекс использует семантический поиск


Нет, топорные статистические петолы, в семантику никто не может.

>автопилоте и говорить нечего


Хуйня, которая едет по прямой.

Вса эти проблемы не решены, это подтвердит любой человек в теме.
385 2101640
>>101636

> Нет, топорные статистические петолы, в семантику никто не может.


Не хочу приносить статьи с хабра, но придется
https://m.habr.com/ru/company/yandex/blog/529658/

> Хуйня, которая едет по прямой.


Ну раз ты сказал..

> Вса эти проблемы не решены, это подтвердит любой человек в теме.


Они не решены до конца но пока все эти проблемы исключительно на нейронках, и значительный прогресс происходит каждые пару лет.
386 2101649
>>101640

>Не хочу приносить статьи с хабра


И не ниси, бложик компании Яндекса ничего другого бы не написал. Яндекс даже в нормальный поиск с трудом может.

>Ну раз ты сказал..


Поинтересуйся DARPA Grand Challenge

Здается мне что ты поридж и тебя ждет еще много разочарований.
387 2101653
>>101649
>>101636
>>101625
Ты опять выходишь на связь, мудило? Твои ЭС ещё в 70х обоссали, как и все остальное, с чем ты носишься только потому, что ничего новее не осилил.
388 2101658
>>101649

> Яндекс даже в нормальный поиск с трудом может.


В некоторых аспектах он даже лучше гугла. Тот же поиск по картинкам.

> Поинтересуйся DARPA Grand Challenge


Это тот который последний раз проводили в 2007? Актуальненько
1614759207115566910.jpg38 Кб, 500x375
389 2101663
>>101653

>Твои ЭС ещё в 70х обоссали


Но в 70х уже были диагностические медицинские системы, где сейчас хотя бы их подобие?

>ничего новее не осилил


Говно для пориджей не работает.

Я сейчас занимаюсь семантическим поиском и пишу морфологический анализатор, без него никак. Так вот, покажи анализатор для русского языка, который не хуяндовский майстем и не васянский пиморфи? Оба говно кстати.
fcy5hdXRvLmRyb20ucnUvaTI0MjU4L3B1YnMvNC84NDQxNy8zNzAyNjYxLm[...].jpeg277 Кб, 1280x960
390 2101666
>>101658

>Тот же поиск по картинкам


Это не семантический поиск.

>Актуальненько


Проблемы остались те же.

Я кстати пробовал в автономное вождение и ты можешь попробовать, это очень легко и тебе не нужно всавать с дивана. Можешь на любом симуляторе пробовать, я на Американ Трак Симулятор делал. Очень интересно, но работа с текстом мне нравится больше. Возможно потом обратно пепрключусь. А есть еще симулятор фермеров, на нем можно автономную сельхозтехнику разрабатывать, мммм, это проще и более переспективно.
391 2101682
>>101666

> Это не семантический поиск.


Речь была про то что яндекс нихуя не могут. Семантический поиск и так уже у них есть и он на нейронках а не нейросетевые реализации пока на уровне не говна а окаменелого говна.

> Проблемы остались те же.


Ты правда считаешь что с теми же проблемами теслы бы пустили на фулл автопилоте разъезжать по улицам? Согласись, огромное количество этих проблем уже решено а остальные решаются в довольно быстром темпе.
392 2101685
>>101682

>на фулл автопилоте разъезжать по улицам


Это где он мимокрока сбил?

>так уже у них есть


Нет.

Набери

Когда родился Есенин
Когда появился на свет Есенин

Почему во втором случае не идет полнотекстовый поиск фразы?
Есенин появился на свет
393 2101686
>>101685

>не идет


Идет, фикс
1626797449251.jpg400 Кб, 1080x1925
394 2101694
>>101685

> Это где он мимокрока сбил?


Напомни, сколько в год мимокроков сбивают люди?

> Почему во втором случае не идет полнотекстовый поиск фразы?


Пчел.. ты..
395 2101695
>>101663

>анализатор для русского языка,


Кому он нужен? Тебе, потому что ты кроме русского ничего не знаешь? Что на русском анализировать? Толстоевского, рашн репчик или что?
396 2101696
>>101694

>Напомни, сколько в год мимокроков сбивают люди?


Это другое.
1626797810370.jpg2 Кб, 170x113
397 2101700
398 2101702
>>101694

>не идет


Идет, я поправил. В твоем случае должна быть плашка как и при первом запросе с датрй рождения, а не поиск словосочетанмя.
399 2101714
>>101695

>Кому он нужен?


Мне, аналитическое говно типа английского уж точно не нужно, а я хочу общаться с виртуальной няшкой на нормальном русском языке. Хотя говноедам вроде тебя достаточно волапюка.
Кстати, меня всегда забавляли нлп пидарахи которые кроме примитивного английского нихуя не знают, в основном это нетиви из юэсэй, типа мы сделали мегайобу которая дает всем пососать в тексте, потом им подсовывают более менее нормальный язык хотя бы из романских типа тот же испанский и они получают защеку, а о флективных языках даже говорить не стоит.
400 2101717
>>101702
Не заметил, но тем не менее поисковик функцию выполнил. Очевидно что у них спрятаны триггеры на говнокоде которые при одних запросах делают обычный поиск текста, при других выдают результаты в особой форме зуб даю что там обычная регулярочка, а при третьих врубают нейронки. Еще судя по тому что даже гугол на вторую фразу выдает полностью мимо, в яндексах сделали проверку результатов нейронкой и прозвали это семантический поиском ведь по сути выполняется поиск по смыслу а не только по словам. Хотя с тем что используют они это херово никто и не спорит, но сделать это на нейронках значительно проще и эффективнее чем на чем либо другом.
401 2101732
>>101717

>поисковик функцию выполнил


Все верно, он искал все три слова в определенном радиусе, но семантику моего запроса он не понял.
402 2101735
>>101717

>на чем либо другом


На чем? Неронки это тупо статистика никаких семантических связей там и в помине нет.
403 2101772
>>101732
Это как сказать тете сраке подать тебе тарелку с оливье за столом но тебе подаст эту тарелку дядя вова. Как бы то ни было, оливье ты получил с харчком но все же.
404 2101776
>>101772
Ты глупенький? Отличие семантического поиска от полнотекстового осознаешь?
405 2101777
>>101735
Это так, но то же можно сказать про все - код это просто набор байтов и никаких операций там и в помине нет, текст это просто набор букв и никаких слов там и в помине нет, на картинке просто набор пикселей и никаких котиков в пикселях и в помине нет.
Хотя даже не так, семантические связи уже идут в датасет и подразумевается архитектурой. При архитектуре хотя бы уровня гпт в этой самой статистике уже есть семантика и она может обрабатываться. Наиболее яркий пример - qa в pipeline, не будь там этих связей он бы как минимум говорил верно меньше чем в половине случаев, а ведь это наиболее примитивная форма для демонстрации. Если допилить архитектуру гпт и натренировать на нужном датасете, семантический поиск будет готов куда быстрее, чем если делать это любым другим методом особенно эс.
406 2101779
>>101776
Очевидно же что на скрине он не полнотекстовый ведь тогда бы он выдал первым результатом не "Сергей Есенин появился на свет" а " Когда Есенин появился на свет", не?
407 2101782
>>101777

>не будь там этих связей


Ммм, а как эти связи там образовывались? Ну просто мне вот забавно смотреть, берется слово, к какой части речи и в каком падеже/склонении оно стоит не учитывается, хотя в морфологии уже куча семантической информации заложена, потом это слово стемерами обрезается и скармливается нейронке. Вопрос, как словосочетание когда появился на свет и слово родился отожествляется?
408 2101785
>>101779
Не, он нашел слова стоящие рядом, вот и все. Поиграйся с Solr на пример, на нем Дакдакгоу реализован.
409 2101796
>>101782
Разве они обрезаются и падежи не учитываются? Насколько знаю, есть вокаб, он же словарь, там разные части слов разбиты на токены в форме чисел для того чтобы значительно сэкономить но количестве генерируемого текста. По сути применяется компрессия как в архивах. И потом слово например "летящий" разбивается на "лет" "ящ" "ий" с токенами скажем 394 37911 296. У них есть вектора которые определяют насколько вероятно что они стоят близко и в итоге у токена 394 и предыдущего токена или группы токенов уже есть близость в этих векторах и наибольшую вероятность получает сначало ящ, а потом ий. А остальное уже идет само собой, при обработке фразы нейронка видит группу токенов "летящий" вместе, и оценивает его близость к прошлым и видит эту связь, значит летящий связан с "самолет" а не с "в небе". Ну или как то так.
1626801796421.jpg397 Кб, 1080x1823
410 2101801
>>101785
Тогда одно из двух. У яндексов лучше этот полнотекстовый поиск чем у гуглов потому что лучше сам алгоритм полнотекстового поиска, либо поиск не до конца полнотекстовый и в статье не напиздели.
411 2101816
>>101796

> падежи не учитываются


Нет конечно, в лучшем лучае стеммером Портера разбивается

>"летящий" разбивается на "лет" "ящ" "ий"


На каком основании? Морфы не учитываются и никогда не учитывались, нет таких технологий а у меня есть.
412 2101818
>>101801

>У яндексов лучше этот полнотекстовый поиск


Ну гугля кроме англоговна не умеет, в том же испанском он сосет, наверное там привязка и оптимизация к языкам.
413 2101836
>>101816
Это база работы трансоформеров, не позорься. Есть вокаб который разбивает весь текст на токены и суть в том что разбивает весь. И обрабатывается тоже весь текст правда на сколько хорошо зависит от модели и гиперпараметров. В принципе можно использовать вокаб из единиц и нулей а перед обработкой текста его переводить в бинарный вид, качество вырастет, но затраты на обучение и время нужное для него вырастут в разы если не в десятки раз.
Иначе как по твоему даже самая малая модель гпт-2 делает текст таким, чтобы все слова были этими самыми падежами связаны, если по твоему они не обрабатываются? Если начнешь про ангельский нинужон, то есть куча рускоязычных моделей, они так же обрабатывают падежи, склонения и все остальное.
414 2101849
>>101818
На английском они эквивалентны а на испанском оба сосут с заглотом. Так все же яндекс лучше гугла?
415 2101860
>>101836

>Есть вокаб который разбивает весь текст на токены


Что такое вокабы и что такое токены? Инструментов разбиение на морфы я не видел, даже если они будут, то они будут основанны на словаре. Такие словари это на пример морфологические словари Тихонова или Ефремовой. Нейроговно к этому не имеет никакого отношения.
416 2101862
>>101849

>Так все же яндекс лучше гугла?


Вероятно да, я как бы не спорю.
417 2101863
>>101860
Вокаб - словарь где написано 1 это "а" 2 это "хуй" 3 это "ъыъ". Токены это те цифры, 1, 2, 3. Это действительно не полноценный морфологический разбор, однако к "хуй" ближе "ня" чем пробел если перед ним токен "ваша" и "нейронка" - ничего не напоминает?
418 2101871
>>101863

>ничего не напоминает


А хуй и однохуйственный как они раскладывают? Это рпзличные части речи.
419 2101873
>>101863

>словарь


Кто его создает?
420 2101876
Почему лопнул пузырь дата-саенса?
421 2101882
>>101862
Тогда в чем секрет, в том что у яндексов лучше полнотекстовый поиск, или в том что яндексы прикрутили к поиску нейронку которая выдает максимально близкий результат к семантическому поиску но работает лишь с русским языком? Как по мне очевидно что второе, и если это грамотно допилить то от полноценного семантического поиска на который уйдет дохуя человекочасов и от правильного использования нейронки эффект будет один и тот же. Только второе имеет огромный потенциал и пока развивается само может двигать всю отрасль как гпт породил трансоформеры которые сейчас даже картинки генерируют и развил множество других направлений. Что даст твой судя по всему еще не готовый алгоритм кроме того что он какое то время будет лежать под копотом какого нибудь проекта и о котором не узнают из за политики кабанчиков держать все в тайне до последнего?
422 2101894
>>101882
Высрал херню, семантический поиск Яндекса не реализован, а полнотекстовый уровня Солр или Эластика.
423 2101897
>>101871

> хуй


"хуй"

> однохуйственный


"одно" "хуй" "ств" "енн" "ый" или как то так. Точно сказать не могу а сейчас проверять мне лень.

Но на хуй и на однохуйственный, очевидно, у нейронки разные векторы к каждому слову в словаре, и в итоге токены однохуйственного имеют большую вероятность идти вместе при токенах и их последовательностях которые лежат близко к этим токенам. То самое пространство векторов, оно же ембеддинг. И в итоге не зная явно морфологию при грамотном датасете нейронка по одним лишь частям речи будет грамотнее среднестатистического двощера.
Эти токены будут близки к другим токенам, например "выглядит" накинет токену "енн" пару очков, "как" накинет очки "ый" а "одинокий человек" накинет "однохуй" мильен очков. Затем "однохуй" даст очки "ств" и уже "одинокий человек выглядит так однохуй" докинут дохуя очков на "енн" а затем и "ый". Все просто и работает.
424 2101901
>>101894
О том же и говорю, у их поиска есть потенциал но они называются яндекс. Но тем не менее они прикрутили нейронку к русскому языку и их поиск даже учитывая что они яндекс обошел с головой поиск гугла выдав результат по смыслу а не по совпадению текста.
425 2101902
>>101897

>"одно" "хуй" "ств" "енн" "ый" или как то так.


Бояяя, поридж ты заебал, КЕМ будет разбитие на морфы? Покажи эту тулзу или алгоритм?
426 2101906
>>101901

>прикрутили нейронку


Прикрутили бы обычную статистику запросов, было бы то же самое, никакой магии.
428 2101912
>>101911
И как уже сказал это скорее сжатие чем разбитие на морфы но именно морфы никто не мешает добавить в словарь отдельно, тем более что они и так при создании туда попадают. Но суть не в них.
429 2101913
>>101906
И как бы это работало?
430 2101926
>>101911
Разбей пожалуйста сказку про Курочку Рябу?
432 2101960
>>101906
В яндексе большие языковые модели (вернее дистилляции) успешно работают на низкочастотных запросах, на голове и так приемлимо работают вполне и обычные факторы и какие-то адхоки. Как собственно и везде, а почему никто не перепишет всё на одну большую нейронку ответ простой: легаси, для того чтобы полностью выкинуть все накопленные за года эвристики и традиционный мл нужно разгрести авгиевы конюшни, переписать поиск и инфраструктуру и показать результат в десятках абтестов по нескольку месяцев каждый, попутно оставив ещё несколько отделов без работы. В больших компаниях такого не бывает, мл ли это или обычная разработка.
433 2101961
>>101932
Сейчас не у компа, завтра разобью.
Но зачем, там будет набор цифр которые тебе мало то скажут. Как уже говорил там упор не на формальные морфемы а на связь одних токенов с другими на основании которых нейронка присваивает им вероятность, и по сути там частями являются не морфемы а сами токены.
434 2101964
Поясните за каггл
Я могу открыть любой челлендж типа того же титоса, открыть самый апвоутнутый чужой ноутбук и хуярить с него или как? Или это вопрос "Оно тебе самому же нужно"?
435 2102094
>>101961

>на связь одних токенов с другими


Ммм, как эти связи определяются?
436 2102095
>>101960
Сказка про колено, в которое попала стрела, так бы всем дал пососать.
437 2102097
>>101960
Сказка про колено, в которое попала стрела, так бы всем дал пососать
438 2102109
>>101964
Можешь. Но на нормальных соревнованиях никто тебе высокорейтинговый нотебук не выложит.
16264279466851.gif1,3 Мб, 379x400
439 2102111
>>102094
Зум зумыч, иди читай что такое multihead attention и как и по какому принципу оно строит связи между токенами, потом уже манякритику наводи. Ах да, там же на английском, а не на вяликом и могучем староколпакском, а ты в англюсик не можешь из-за iq на уровне комнатной температуры. Уж тем более тебе никогда не понять, что все возможные алгоритмы машобчика и вообще какого-либо анализа данных это просто восстановление распределения вероятностей, и в ЭС твоих никакой магии нет, оно делает то же самое, что и трансформеры, только по-другому и на порядки хуже.
440 2102164
>>102094
Ембеддингом же во время обучения. От каждого токена к другим идут вектора и получается такое пространство в котором хуй и член лежат близко, а марс и кровать далеко, а так же получается что морфемы в том или ином виде лежат близко к тем токенам с которыми они используются.
30067889-1.jpg170 Кб, 900x1200
441 2102180
>>102111

>иди читай


Сам читай очередное никому не неужное говно
442 2102183
>>102164

> хуй и член лежат близко, а марс и кровать далеко


Короче херня, ну я так приблизительно и представлял.
443 2102186
>>102111

>алгоритмы машобчика


Мммм, трясунишка ящика с зарплатой меньше чем продаван в пятерочке, это ты?
444 2102209
>>102183
Ты удивишься, но эта херня вполне работает как и полноценная система с морфемным анализом. А полноценные системы с морфемным анализом я даже не могу вспомнить где используются. Напомнишь?
445 2102213
>>102209

>но эта херня вполне работает


Только в маеяфантащиях пориджей

>Напомнишь


Весь нормальный НЛП
446 2102220
>>102213

> Только в маеяфантащиях пориджей


Я уже правда сомневаюсь кто из нас поридж. Даже говно мочи (rugpt от сберов) может в падежи, склонения, запятые и попросту в грамматику русского языка. Даже моча мочи (зелибоба от яндекса) может во все это кстати на порядок лучше ведь в датасете был дводщь. Более того, сгенерированный бред во первых уже на порядок лучше того бреда что был года два назад в темные времена lstm, а во вторых он даже несет смысловую нагрузку.

> Весь нормальный НЛП


Дай примеров чтоль, или они используются

> Только в маеяфантащиях пориджей

1623935290114148129.jpg136 Кб, 824x1280
447 2102229
>>102220

>Даже говно мочи (rugpt от сберов) может в падежи, склонения, запятые и попросту в грамматику русского языка


rugpt? Лоооол, серьезно? Мальчик, ты школу то закончил? Откуда вы лезите бля
1626855587575.jpg199 Кб, 1080x1500
448 2102259
>>102229
Он конечно полное говно как я блять и написал но с морфемами у него все в норме.
И сейчас разобью ту сказку токенизереом.
1626855832415.png58 Кб, 1615x395
449 2102263
>>101932
Разделил символом "|" декодированные токены. Токенизатор использовал от сбера так как лень делать свой.
Ж |или |- |были | дед | да | баба |. | И | была | у | них | Ку |рочка | Ря |ба |. |С |нес |ла | ку |рочка | яич |ко |, | да | не | простое | - | золо |тое |. |Д |ед | бил | - | не | разбил |. |Ба |ба | била | - | не | раз |била |. |А | мы |шка | бежала |, | хво |стиком | махнула |, | яич |ко | упало | и | разб |илось |. |Пла |чет | дед |, | плачет | баба | и | говорит | им | Ку |рочка | Ря |ба |:- | Не | пла |чь |, | дед |, | не | пла |чь |, | баба |: | снес |у | вам | новое | яич |ко | не | золо |тое |, | а | простое |! |
450 2102283
>>102180
>>102186
Лол, пробрало неграмотного калмуниста. Напоминаю, что в 21 веке человек, не знающий английского, по факту неграмотный, 99.9% актуального контента в любой предметной области кроме русскаго репчика и программы "вечер с Владимиром Соловьёвым", для него априори недоступно.
451 2102414
Аноны, которые шарят в нейросятях и анализах данных. Нужна ваша помощь. Не бесплатно. Суть проблемы. Я занимаюсь продвижением мобильных приложений. За некоторое время набрал некоторое количество данных вида: частота запроса, установок в конкретный день, изменение позиций(в зависимости от количества установок). Я более менее нашел взаимосвязь между этими 3мя значениями тыкая наугад. Мне нужна помощь в поиске этой взаимосвязи не на основе тыка, как я делаю это сейчас. Кому интересно, вот мой tg: @kir2915
452 2102457
А есть вообще разница, как umap и tsne используется - сразу на всех данных или на на частях этих данных?
453 2102559
>>102283

>не знающий английского, по факту неграмотный


>Инглес лангуага, зе грейт лангуаг оф зе ворлд


Знание англоговна нужно только безполезным макакам в роде тебя, белым господам при необходимости выделят надмозга. Я даже не представляю на хуй этот говноязык учить. Хотя для пориджей смотреть в Твиторе как негры едят арбуз наверное нужно.
454 2102564
>>102263

>Ж |или


>Ку |рочка


Чет пиздец
455 2102573
>>102559

> в роде тебя


> на хуй


Ты бы хоть русский сначала выучил, как же проигрываю с тебя. И ты еще что то кукарекал про морфемы итт, блять, какие же пориджы дегенераты.

И нет, английский объективно не лучший язык в мире, но он во первых наиболее универсален, во вторых наиболее прост. Идеальный язык чтобы связать всех людей и позволить им обмениваться информацией, и поэтому мейн лангуаге в эпоху глобализма. Если ты не знаешь ангельский, ты самоизолирован в рамках пахомии с системами которые изжили себя лет 50 назад. Даже не так, эти системы давно заменены на инглишовскте, вспомни хоть один яп на русском, или португальском, или японском, да хоть на каком кроме ангельского, который сейчас используется хоть где то кроме школ.
456 2102576
>>102564
Об этом и говорил но повторять как то заебался. Этого вполне хватает для генерации текста с правильными морфемами даже говном на палке.
457 2102589
>>102573

>чтобы связать всех людей


Тебя с твоим барином наверное связал. Мне твое англоговно на хуй не нужно, от слова совсем, хотя техдоки и книги читаю свободно.
458 2102594
>>102573

>Идеальный язык чтобы связать всех людей и позволить им обмениваться информацией, и поэтому мейн лангуаге в эпоху глобализма.


На самом деле это эсперанто и всякие ложбаны, англюсик более распространен из-за экономической экспансии
459 2102607
>>102589
Пока с барином в первую очередь русским языком связан только ты и если выбирать межу российским барином и англогосподином то выбор очевиден. Но мимо, пока связан только со статейками и технодоками.
460 2102634
Есть тупой вопрос: как может случиться так что лгбтбустинг стал выдавать результаты хуже после добавления фичей?
ш.png15 Кб, 569x348
461 2102899
Шутники имеются?
462 2102906
>>101397

> ГАНы это не вершина технологического развития


Расскажи что выше. На данный момент
463 2102916
>>102906

>На данный момент


На данный момент бодественные ЭС рулят как обычно, а нейронки сосут
464 2103006
>>102916
Снова выходишь на связь мудило?
465 2103046
>>103006
Азаза, трясунишке неприятно, что нейронки не могут в то, во что ЭС в 70х на изичах
466 2103050
>>103046
Дай эс которая определит что на картинке котик или собака. Из 70-х ясен хуй. Я подожду.
467 2103061
>>102899
Ну это экспертная система нужна
468 2103062
>>103050

>на картинке котик или собака


Не нужное говно.
469 2103084
>>103062
Это примитивная форма компьютерного зрения и если твое говно не может даже в это то оно не сможет ни в одну задачу где компьютер должен взаимодействовать с реальными объектами используя лишь камеру а не оверпрайснутые датчики. Или автопилоты, моделирование по лишь одной фотографии вместо 1000 ракурсов в 4ккк и роботы которые могут поймать предмет уже внезапно стали ненужным говном?
image.png273 Кб, 850x761
470 2103106
>>103050
Распознать и искусственный дурачок может, а позаботить о кошаках твои нейросети могут? Вот экспертные системы могут

Expert system for determining the type of cats and how to care them
Cats are one of the many animals kept by animal lovers in Indonesia because the cat is a very friendly animal with humans and has a funny character. Nevertheless, not all cat lovers understand exactly the type of cat that is owned even how to care especially for ras or domestic cats (kucing ras - in Bahasa), because each type of ras cat has different character and way of care. This causes the pet cat affected by various diseases to cause death. One way to overcome the incomprehension of cat lovers in taking care of it is with the help of expert systems that have proven reliability in helping solve problems that require solutions as an expert in his field. This expert system was developed using forward chaining method. By answering any questions asked by the system about the characteristics of the cat owned, users will get answers about the type of cat they have and the way of good and right care.
https://www.researchgate.net/publication/329401998_Expert_system_for_determining_the_type_of_cats_and_how_to_care_them
471 2103108
>>103084

>если твое говно не может даже


А кто самолеты и прочие танчики в наведениях ракет распозновал?
image.png831 Кб, 976x1815
472 2103110
>>103108
Следствие ведет нечеткое множество колобков
473 2103111
>>103110
Так оно только в 1965 начало появляться.
cover.jpg15 Кб, 220x327
474 2103121
>>103110
Четкий Йоба
475 2103140
>>102906

> Расскажи что выше. На данный момент


Трансформеры.
476 2103182
>>103106

> пик


Это ещё и вручную надо прописывать? Ебать, прогрессивно.
477 2103184
>>103106
Искусственный дурачек стоит денег и пишет вывод не моментально, а твоя эс во первых не из 70-х, а во вторых

> This expert system was developed using forward chaining method. By answering any questions asked by the system about the characteristics of the cat owned, users will get answers about the type of cat they have and the way of good and right care.



Не работает без этого самого дурачка который сам и посмотрит и сам ответит на вопросы. То есть абсолютно не автономна и ограничена скоростью ввода этого самого дурачка.

Нахуя ты вообще это сюда принес если уже есть нейронка которая сделает то же самое но сама на ресурсах телефона?
да опять хабр и тут собаки, но мне крайне в лом искать дольше 2 минут
habr.com/ru/post/448316/
478 2103186
>>103108
Напомни, почему от них массово перешли на нейронки еще лет пять назад? Ах да, от высокой точности же, точно. Ведь если приделать к той же ракете рисунок с танком внутри которого нарисован хуй, а на самой ракете чуть чуть изменить контур чтобы ракета была с двумя яйцами у основания, то твоя эс выстрелит противоракетным в себя от безисходности и от того что не может найти схожий шаблон контура. Или я что то путаю и к контурам уже тогда подрубали нейронку?
479 2103450
>>103186
>>103184

>Товарищмайор, мы натренировали нейронку на нашу ракету Либирашка2000 , готовы к запуску11


>Запуск разрешаю, огонь111


>Ракета залетает прям в дупу товарищмайору


>Ряяя, защо1111

480 2103451
>>103184

>habr.com


Прчему говноед всегда нейродебил?
481 2103453
>>103186

>Или я что то путаю


Ты просто поридж, который живет в маенфантазиях нейропетухов
482 2103460
>>103184

>habr.com/ru/post/448316/


Попробовал. Уровень угадывания совершенно неприличный — для одной и той же собаки породы гуляют так, что я могу это написать в две строки с random.choice(). Можно даже без фотографии

Даже опущенные говноеды из швабропараши обосрали этого нерошизика, лол.
483 2103500
>>103450
>>103451
>>103453
>>103460

> 4 поста


Семен Семеныч, а ты неплох. Вот только ракеты полностью на нейронках не делают хотя многие функции уже реализованы на них, хабр певая ссылка в гугле, маняфантазии эс дебичейнастолько смешны что они высирают 4 поста на один, а статья - начало 2019 года, хочешь новее - https://siwalusoftware.com/ru/cat-scanner/

Еще пукать в лужу будешь или все же смоешься из треда и интернетов?
1626951547159.jpg305 Кб, 1080x1882
484 2103507
>>103500
Кстати только что его проверил и оно отгадало мою кошку. Напомни, сколько вопросов нужно ответить эске и насколько это медленнее чем скормить одну фотку?
485 2103512
>>103500

> певая


*первая
слоуфикс
486 2103524
>>103507
>>103500
Потешное нейроговно крутит рендом, а они и рады
487 2103528
>>103507
Видишь кошку, но не знаешь ее породы?
Просто сделайте быструю фотографию или видеозапись кошки — с помощью приложения Cat Scanner вы сможете надежно идентифицировать породу кошек всего за несколько секунд! Наша встроенная камера с функцией масштабирования Pinch To Zoom и Tap to Focus позволяет легко идентифицировать кошку той или иной породы!


Как перестать лолировать от этих невероятеых прорывов?
488 2103531
>>103524

> с первого раза определила кошку из 60


> рандом


А ты смешной. Квадратики в рил тайм распознавателе объектов тоже нейронка на рандом рисует? Не позорься и иди поридж с клубникой поешь, или что вы там зумеры обычно делаете 99% времени.
489 2103533
>>103528
Давай аналог на эс шоб за секунду и с камеры в рил тайме, я могу подождать лет 5 пока эс окончательно не забудутся.
490 2103536
>>103533
>>103531

>1970, ЭС занимаются медицинской диагностикой, управляют космолетами


>2021, нейронки определяют котиков


В голос. Хотя всеобщая деградация человечества на лицо.
491 2103537
>>103531

>Квадратики в рил тайм распознавателе объектов тоже нейронка на рандом рисует?


Конечно
492 2103541
>>103536

> 1970, ЭС занимаются медицинской диагностикой, управляют космолетами


Манямир. Ничем они не управляли, ничего не диагностировали. Было полтора условно работающих прототипа, за последствия работы которых никто не захотел отвечать, на этом всё и закончилось. Кроме акинатора ничего из ЭС не получилось.
20210722144803.png302 Кб, 1351x1332
493 2103542
>>103541
Манямир это у нейросектантов, которые ничего подобного даже в обозримом будущем не сделают
494 2103546
>>103542
Ну и что ты принес? Список неработающих прожектов. Если бы хоть что-то из этого минимально работало, это использовалось бы давно. И не пизди про плахой капетализм, у калмунистов бы работало. Но и этого нет, потому что нерабочая хуета.
495 2103551
>>103546
В тебя в глазках котики? Про Матлаб то хоть слышал? Теперь покажи список чего нибудь равносильного на нейроговне, а не безполезное определение котиков.
496 2103553
>>103551

> Про Матлаб то хоть слышал?


Матлаб это по-твоему ЭС?
497 2103556
>>103553
Нет, но она там есть как и во многих CAD системах.
498 2103583
>>103556

> Нет, но она там есть как и во многих CAD системах.


Лол. И что? Погугли, сколько разновидностей этой шляпы в R. В отличие от матлаба, все бесплатно, казалось бы, бери и используй. Только никому нахуй это не надо.
499 2103591
>>103583

>Лол. И что


То, что это приносит пользу, а нейронки кроме потехи ничего не приносят, этакие попыты
500 2103592
>>103591

> То, что это приносит пользу,


Пример пользы будет? Так-то в матлабе и нейронок полно.
501 2103703
>>103536
Ты забыл ещё один аспект:

>1970, ЭС занимаются медицинской диагностикой, управляют космолетами


>2021, нейронки запиливают кибергулаг

502 2103705
>>103536
Ты забыл ещё один аспект:

>1970, ЭС занимаются медицинской диагностикой, управляют космолетами


>2021, нейронки запиливают кибергулаг

503 2103706
Нейросектантов в будущем ждёт Второй Нюрнбергский трибунал
504 2103721
>>103592

>Так-то в матлабе и нейронок полно


Они там потехи ради, они не являются частью движка, а нужны для симуляции нейронок.
505 2103732
>>103703
Во первых сейчас не 1970 и эс ничем из этого не занимаются а если и занимаются то это уже давно не чистые эс. Во вторых кибергулаг устраивают не нейронки, его устраивают люди с помощью нейронок, все равно что говорить что нож и вилки это плохо потому что ими можно убить человека. Его вполне могли бы устроить и с эс, даже устраивали, но если нейронки лучше эс то ясен хуй все перейдут на них с этого говна.
К слову, если верить тебе то это даже хорошо, ведь нейронки настолько говно что их используют все и они не будут работать, а значит кибергулагв не будет. Радуйся что ли а не пукай гринтекстом.

>>103721

> они не являются частью движка,


> а нужны для симуляции нейронок.


Ты явно путаешься в очевидных моментах, если они там есть значит они по определению часть движа.
506 2103763
>>103732

>если они там есть значит они по определению часть


Матлаб не рисует котиков, так что в движке нейронки не нужны
507 2103772
>>103763
Суть нейронок не только в рисовании котиков, котики скорее демонстрация того что уже могут нейронки.
508 2103861
>>103772
А более полезные вещи она может?
509 2103917
>>103861
А ты довольно тупенький, правда? Хотя чего еще ждать от эс даунича.
>>103084

> автопилоты, моделирование по лишь одной фотографии вместо 1000 ракурсов в 4ккк и роботы которые могут поймать предмет

510 2104098
Анон, я тут немного заинтересовался вопросом переката из веб разработки в сторону дата саенса. Случайно наткнулся на вопросы с собеседований. Теория. Если с вопросами по моделям (когда использовать? что за гиперпараметры? итд) менее-более понятно, то со статистикой и особенно теорией вероятностей как-то туговато идёт. Не дай бог задачку бы попросили какую решить на подкидываение монетки или доставание шаров. Есть какая рекомендованная литература по этим топикам? Нормальное распределение я на глаз узнаю или смогу посчитать какие-нибудь простые статистики, но этого явно маловато.
511 2104101
>>104098

>аинтересовался вопросом переката из веб разработки в сторону дата саенса.


>>100217
512 2104121
>>104098

> Есть какая рекомендованная литература по этим топикам?


d2l.ai там всё нужное.
513 2104546
Зацените этих якодзун мошонлёрнинга

https://m.youtube.com/watch?v=F5-TDP7DYUE

Чё такое пресижн рекол написать не могут, какие то охуительные истории про плохой высокий рокаук, пиздец вообще
514 2104737
Рейт описание вакансии
hh.ru/vacancy/46408491
515 2104744
>>104737
Очередной человек-оркестр за лоупрайс.
516 2105011
Тут поридж с ЭС кукарекал, что нейроночки могут только во всратых котов. На самом же деле тут на повестке дня вопрос о самом серьезном прорыве в молекулярной биологии за всю историю существования науки вообще. Нейроночки прямо сейчас меняют мир, предоставляя науке возможности, которых без машобчика она бы не получила никогда.
https://3dnews.ru/1045020/ii-google-gotov-reshit-velichayshuyu-problemu-v-biologii-za-poslednie-50-let-predstavit-formu-vseh-izvestnih-nauke-belkov

> Произойдёт это в течение нескольких месяцев и обещает стать самым грандиозным в истории биологии событием. Программы по предсказанию формы белка разрабатываются многими компаниями и научными коллективами, но пакет AlphaFold DeepMind показал самую высокую точность прогнозирования формы. Эти инструменты находятся в открытом доступе, а готовая база данных по белкам значительно облегчит работу биологов во всём мире — бери и пользуйся.



> Пакет AlphaFold может предсказывать форму белков с точностью до атома. Но даже меньшая точность позволяет разрабатывать новые лекарства, предоставляя информацию о приблизительной пространственной конфигурации ранее структурно не изученных белков. Так, если за последние 10 лет биологи смогли изучить строение только 17 % белков человека, то AlphaFold за считанные недели удвоил базу белковых форм человека до 36 %. Эту информацию ещё предстоит проверить, но раньше алгоритм AlphaFold уже доказывал свою способность почти не ошибаться.



> Кроме белков человека DeepMind обещает представить белковые формы 20 наиболее изученных организмов от дрожжей до мух дрозофил, мышей и других — до сотен миллионов белковых форм. Сегодня база DeepMind содержит информацию о 350 тыс. предсказанных формах белка, но через несколько месяцев будет расширена до более чем 100 млн форм, где будут почти все более или менее известные науке белки.


Что с ебалом, свидетель акинатора а на большее ЭС по факту не способны, иначе это давно бы реализовали?
517 2105040
>>105011
Это те самые вычислители протеинов?
518 2105045
>>105040

> Это те самые вычислители протеинов?


Нет, вычислители протеинов за 10+ лет 17% навычисляли, а альфафолд столько же - за несколько недель. Уже только это позволяет говорить о неоценимом вкладе нейросетей в науку. И о сбыче мечт протеиношизика, ему вообще нужно Гуглу поклоняться за такое
1507492429760.png1,7 Мб, 762x1080
519 2105369
520 2105402
>>105011

>прямо сейчас


Это же было полгода назад.
Как там, сильно брутфорс структур помог?
521 2105414
ПЕРЕКАТ?
522 2105437
>>105414
Биттер лесон
523 2105447
>>105402

> Это же было полгода назад.


> Как там, сильно брутфорс структур помог?


Полгода назад ее только зарелизили. Сейчас вовсю идёт использование, и это только начало и только первый настолько удачный проект. Сравни для начала когда придумали ЭС и вспомни единственный удачный проект на них - акинатор. Полгода для науки это нихуя.
524 2105452
К слову о битерлесоне. Альфафолд это как раз тому пример. Считали десятилетиями протеины на распределенных системах, а потом вжух и нейросеть за несколько недель сделала больше.
525 2105455
>>105402

> брутфорс


Алсо, ты настолько дэбилен, что даже значение этого слова не понимаешь, раз используешь его совершенно не в тему. В данном случае брутфорс не при чём.
526 2105476
>>105455
Мошонлёрнинг это глорифайд брутфорс и есть, мань
527 2105493
>>105476
Нет, мань, это не брутфорс. Ты б сьебал отсюда учебники почитать, почему вы зумера такие - нихуя не знаете, даже из самых азов, а везде лезете со своим очень ценным манямнением? Это же 100% детектор школуйни.
528 2105494
>>105493
Возбуждённая школота с популярными статейками тут ты, перечитай свой битерлессон любимый а потом загугли что значит брутфорс
529 2105539
>>105494
>>105493
Чет орнул с гениев нейросеточек.
всем давно известно что нейронки это брутфорс со смешением вероятностей которое направленно подбирается во время обучения алгоритмами начиная с градиентного спуска и заканчивая йобаадамом2000
16264583018240.png764 Кб, 1280x1092
530 2105560
Посоны, дрочнул титаник
Использовал катбуст классифаер, сделал возраст от пола, класса с std, получил топ 31%(~0.78)
Это конечно не охуенно, но я не знаю что стоит оставить как мой финальный на текущий уровень знаний результат, ведь топы все просто запихнули csv с правильным ответом с гитхаба, у меня был соблазн взять его, поменять каждую десятое значение на противоположное и получить свои ~0.95, но это говно какое-то
Короче хз поддержите меня или обосрите, что-нибудь
531 2106244
Положим, необходимо реализовать прямой перевод из языка в язык. Условно, в гугле хотят реализацию новой фичи в ютубе, открываешь иностранное видео, подкаст, а в нем голосовая дорожка автоматически заменяется на сгенерированную и перееденную на родной язык. Опустим звуковые эффекты, множество голосов и музыку. Как такое будут реализовывать дата-инженегры? Они запилят всякие преоброзавания Фурье и модель голос-голос или возьмут нейросеть1, которая переведет голос в текст, запихнут это в гугл переводчик и запихнут в нейросеть2, которая преобразует текст в звковой файл? Положим это чисто эксперементальная фича, напоминающая альфа версию MVP. В конце концов до 2016 года тот же гугл переводчик был куда менее адекватен. Есть два стула путя, какой наиболее эффективен по соотношению "качество" на рубль даллар?
532 2106269
>>106244
Ансамбль что ты описал априори говно
Сетки не упираются в 100% никогда, это как КПД, даже у спроектированных "вечных двигателей" он все равно не 1
При ансамбле ошибки/шумы каждой сети будут накапливаться
Скорее всего будет 2 сетки, нлп-шная которая занимается всем текстом и звуковая для всего понимания и генерации с жестким форматом данных между ними
Но проблема такого перевода не в сложности технического процесса, а в особенностях языка, когда слова, фразы и контексты не переводятся на другой язык, это очень будет касаться таких языков как китайский где стандартным приветствием является "Ты вкусно сегодня кушал?" и в русско-английской паре есть непереводимые старые латинские слова типа Магнаномус или русские фразы в духе косил косой косу косой или Хуй будешь?
533 2106298
>>106244
Помню натыкался на новость о том что гуглы трудились над прямым переводом звуковых файлов в звуковые файлы без использования текста. Уже точно не помню когда и где, но как по мне это будет значительно эффективнее другого пути как уже написали, ведь так будет сохранение интонации и длины фразы по времени произношения. Ну и разумеется это попросту быстрее ведь нейронка одна.
534 2106346
>>106269

> фразы в духе косил косой косу косой или Хуй будешь?


Трансформеры изначально могут в разные значения одного слова, конкретные примеры вроде в хаггингфейсовских колабах видел. Тот же word2vec так не может, там одному слову соответствует один вектор, а в трансформерах это разные тензоры.
535 2106350
>>106346
Да это все охуенно, только вот если человек не может в принципе что-то перевести с сохранением смысла и коннотации, то машина уж точно не сможет как бы она внутри не работала
536 2106370
>>105560

> дрочнул титаник


Там 2000 строк. Там не на чем учить, бро. Сириусли
537 2106374
>>106370
Там 900 пассажиров и 400 в тестовом, я думаю это чисто проект-тест на пидора, потому что у 177 отсутствует возраст и у 650 примерно не прописаны каюты, инфа по билету и имени почти бесполезная(пендосы пытаются по Mr. Mrs. Dr. припискам выдумывать возраста, но у тех у кого есть приписки всего 15 пропущенных возрастов, вангую потому что чернь не наименовалась мистерами и среди них больше всего проебанной каютной и возрастной инфы). При этом топ 200 результатов - 1.000 что возможно если засабмитить просто правильный сsv, уже посмотрел все ноуты с хорошими результатами, там обычный рандом форест который у меня выдал 72% у них якобы выдает 98%, где есть комментарии просто пишут что они удаляют значения какого-то процента цсвшки и получают 90-99 результаты, ютуберы что проходят вживую это обычно набирают те же 75-80% что и у меня
538 2106485
Ну как вы там, потомки?
Всё ещё кормите эс-шизика?
539 2106761
>>106485

> Ну как вы там, потомки?


> Всё ещё кормите эс-шизика?


Нет, он официально обоссан. AlphaFold полностью противоречит его манямиру (нейросеть, уже сделавшая прорыв в науке, алсо праклятые капетолизты все выложили в открытый доступ). Как и тот медицинский факт, что единственный рабочий пример ЭС это акинатор.
540 2106884
>>106485
ЭС-шизик прошлое
Теперь горького петушка кормим
541 2106894
https://www.research.ibm.com/blog/icml-darpa-agent
Прокомментируйте, кто в теме, что там за здравый смысл нейронке завезли
542 2106896
>>105011

>Эту информацию ещё предстоит проверить


Лолблять, вот это надо было жирным выделять. Нейронки нагенерили опять какого то бреда, типа Порфирьича или той китайской с 6 биллионами параметров которая просто стоковые фотки блюрила. А людям теперь копаться в этом говне.
543 2106897
>>106244

>до 2016 года тот же гугл переводчик был куда менее адекватен.


Серьезно? Чем больше нейронок в гугле насували, тем менее юзабельным он становится. Мое мнение как пользователя.
544 2106907
>>106896
Ой, что тут у нас, неужели врети. Это последнее, во что тебе остаётся веровать, что там разница будет больше чем на пару атомов, что кстати, не мешает использовать результат для создания лекарств итд.
545 2107274
>>106907
Арбидольчика что ли? Ну да человеческий организм может много чего жрать без вреда.

>веровать


Это к трясунам черного ящика, который всегда лажает, а тут вдруг с чего то угадает правильные ответы.
546 2107546
regular expressions - база? юзают их?
547 2107603
>>106894
Не понятно, при чем тут здравый смысл. Звучит как что-то, что можно вписать в RL. Какой-нибудь inverse RL uncertainty estimation.
На сам датасет ещё не смотрел, но 8400 ВИДЕО - звучит как-то сомнительно.

>>107546
Юзают. Но если не будешь знать, то всем за пределами нлп будет похуй.
548 2107635
Собираюсь вкатываться в дата сайенс/мл. План вката такой :Python data science handbook+hands-on machine learning + какой-то курс/книжка по статистике + решать упражнения в туториалах на kaggle learn + участвовать в соревнованиях на kaggle. Как вам план вката, что можете еще порекомендовать?
549 2107672
>>107274

> Арбидольчика что ли? Ну да человеческий организм может много чего жрать без вреда.


Пчел, расскажи какого там в средневековье жить до 20 лет и умереть от пореза/простуды. Пиздец, ты не просто эс шизик а анприм шизик. С кем я блять в одном треде сижу.

> Это к трясунам черного ящика, который всегда лажает, а тут вдруг с чего то угадает правильные ответы.


Во первых угадывает лучше людей которые 50 лет не могли этого сделать, и угадывает настолько хорошо что это имеет прямое практическое применение. А во вторых нейронки уже давно не черный ящик для всех у кого больше 2 iq. Ты в любой момент можешь посмотреть код что выполнения что тренировки, посмотреть структуру модели, слои, вектора, да и в принципе абсолютно все. Если взять пару листков бумаги и ручку то любой человек знающий тензорную алгебру вполне может просчитать вывод нейронки за пару дней и даже натренировать свою ручками за пару десятилетий.
550 2107929
>>107672

>Ты в любой момент можешь посмотреть код что выполнения что тренировки, посмотреть структуру модели, слои, вектора, да и в принципе абсолютно все. Если взять пару листков бумаги и ручку то любой человек знающий тензорную алгебру вполне может просчитать вывод нейронки за пару дней и даже натренировать свою ручками за пару десятилетий.


Ахуеть, ты хоть знаешь что вообще значит "чёрный ящик"?
551 2107949
>>107929

> Чёрный ящик — термин, используемый для обозначения системы, внутреннее устройство и механизм работы которой очень сложны, неизвестны или неважны в рамках данной задачи. «Метод чёрного ящика» — метод исследования таких систем, когда вместо свойств и взаимосвязей составных частей системы, изучается реакция системы, как целого, на изменяющиеся условия.



Да. И все мимо, ведь как и сказал уже давно делают акцент на исследование

> свойств и взаимосвязей составных частей системы


и конечно же

> внутреннее устройство и механизм работы


Сложны на уровне вышмата давай назови вышмат черным ящиком, абсолютно известны и крайне важны в рамках задачи.
552 2107998
в этой тематике какой бамп-лимит? 1к?
553 2108005
>>107949
Ты долбоёб чтоли совсем? Из того что что-то композиция простых вещей не следует что эта вещь не сложная, что угодно можно представить как композицию простых вещей; человека, небо, аллаха. Пиши в треде после того как базовый курс философии сдашь, короче говоря и перестанешь трактовать слова в свою собственном значении.
16272703460480.jpg40 Кб, 511x407
554 2108051
>>108005

> Из того что что-то композиция простых вещей не следует что эта вещь не сложная


Из этого зато прямо следует, что эта вещь не черный ящик.

> Пиши в треде после того как базовый курс философии сдашь,


Мдауш, тупую пизду с филфака за километр видно.
1627359919328.png12 Кб, 1280x223
555 2108068
>>108005
Пчел, таким образом у тебя и телефон с вентилятором это черные ящики ведь ты даже близко не понимаешь как они работают и получается эта схема пикрил. Нажал кнопки в случайном порядке - ввел капчу - пост высрался. Чем не магия или как минимум слишком сложная система которая в данном случае не важна?
556 2108134
У меня к вам 5 вопросов.
1. Ваш персонаж существует на самом деле?
2. Ваш персонаж женщина?
3. Ваш персонаж говорит по-русски?
4. Ваш персонаж актер?
5. Ваш персонаж англичанин?
ЭС-боги отвечают на эти вопросы за 3 секунды, нейротрясуны не ответят никогда.
557 2108135
>>108134
Хуета, ногами деланная, кстати. Может один и тот же вопрос несколько раз задавать, это не нормально.
558 2108148
>>108135
Это проверка на ложь/уверенность в ответе.
559 2108412
>>108134
Неплохое маняврирование, но нет. Пока тебе нужно ответить на дохуялион вопросов, нейроб-гам нужно только дать картинку, либо ввести все на естественном языке вроде "это зумер с двумя ногами, двумя руками и эс вместо головного моска".
560 2108424
>>108412

> Пока тебе нужно ответить на дохуялион вопросов,


Ну, если вопросы правильные, то их число не сильно больше логарифма от общего числа ответов. Не как в случае шахматной доски, для которой достаточно 6 вопросов, чтобы угадать загаданный квадрат - 1 из 64 вариантов, но все же.
561 2108449
>>108424
Ты... Ты же понимаешь что при идеальных условиях шахматной доски это уже не эс а градиентный спуск, он же основа всех нейронок?
562 2108527
>>108449
Ну никто кроме ЭС-шизика и не спорит, что ЭС и нейроночки делают в общем одно и то же, но по-разному и с разной эффективностью. Весь возможный машобчик это реализации expectation maximization (EM) алгоритма, разной степени кринжовости.
563 2109028
>>108068

>ты даже близко не понимаешь как они работают


Это вас теперь в школе не учат как электромотор работает? Пизда
>>108051

>Из этого зато прямо следует, что эта вещь не черный ящик


Не следует. Начинай лучше с основ матлогики.
564 2109067
>>109028

> Это вас теперь в школе не учат как электромотор работает? Пизда


Тебя же. Хотя хуй знает чему сейчас во 2 классе кроме матлогики и философии учат. Или ты все же пошел в школу анпримов?
565 2109094
>>109067
Кого? Опять ты со своими протыклассниками
16271531490160.jpg69 Кб, 853x1280
566 2109100
>>109028

> Не следует. Начинай лучше с основ матлогики.


Причем тут матлогика вообще, ты хоть знаешь, что это такое? Судя по твоим зумерским постам, не знаешь.
567 2109142
>>107635

>участвовать в соревнованиях на kaggle


Достаточно бессмысленно в 2021. Вот годика 4 назад, когда там были одни таблички, по 100 участников на сореву, и можно было затащить иксджибустом, вот тогда была жизнь.
568 2109206
>>109094
Понял, все же школа анпримов. Скажи что нибудь по анпримски.
569 2109285
https://2ch.hk/news/res/10416265.html (М)

>Миллион человек — такая нехватка кадров наблюдается сегодня в российской IT-индустрии. В Минцифры предупреждают, что в ближайшее время ситуация станет только хуже. Через шесть лет дефицит специалистов увеличится как минимум вдвое: к 2027 году Россия недосчитается двух миллионов айтишников.


А GPT-4-5-10 их не порешает?
570 2109298
>>109285
Нейросеть уже работает на подхвате у погромистов.
https://copilot.github.com/
571 2109333
>>109285

> А GPT-4-5-10 их не порешает?


В Блинолопатии не будет никакой GPT-4-5-10. Максимум сбербанк доест какой-нибудь открытый проект, зафайнтюнив на русскоязычном датасете. Но они походу и в это уже не могут, казалось бы, GPT-J-6B давно выложена в виде варианта для дальнейшего файнтюнинга, бери и делай, но они и это не осилили.
572 2109358
>>107635
Я примерно сделал все что ты описал, уперся в то что теперь надо учить какую-то очень целенаправленную муть, т.е выбирать направление(наверное) типа нлп, зрения или ряды, или еще что, тренироваться туда скорее всего, но что выбрать невозможно сказать, ощущения что я подхожу даже на джуна никакого, вакансии все выглядят как средство устрашения. И я так подозреваю, я точно не знаю, что в ДС есть залупа как в некоторых науках, когда в учебниках пишут одно, а на деле люди занимаются совершенно другим, т.е. этот же каггл это как задачи по физике с пузырьком ртути в стеклянной пробирке, интересно, муторно, нахуй ирл не нужно практически нигде. Как выбираться из этой ямы не знаю совершенно, хоть временно перекатываться во что-то более прикладное, не абстрактное и направленное прямым потоком(всмысле кабаны в рашке сами знают чего хотят)
16264294676300.png224 Кб, 666x540
573 2109656
>>107635
>>109358
Зумера не могут в программирование. Вон же, >>109285 уже сейчас миллион мартышек недобор. Но вы зумера в открывашку-то не можете, не то чтобы в кодинг. На работу берут только пиздаболов, т.е то что сейчас называется софт скиллс. Как итог, АйТи Блинолопатии где-то на уровне центральной Африки.
574 2109888
>>109285

>А GPT-4-5-10 их не порешает?


А следующие GPT будут? Для обеспечения работы очередного миллиарда параметров не нужно будет все суперкомьютеры в один объединять?
575 2110007
>>109358
Главное - понимание бизнес-процессов. Потом идет навык кодинга. К тому же сейчас набирает обороты MLOps, т.е. ковыряние кубера тоже нужно.
https://www.youtube.com/watch?v=8rMYC5ix7d4
576 2110189
>>109206
Науки нинужны, слава битерлессону!
577 2110201
>>109888
Параметры нинужны, без шуток. Если взять и заставить gpt-3 обучать нейронку чтобы получить дистиллированную gpt-3 примерно как тут https://transformer.huggingface.co/model/distil-gpt2, а потом прунингом отрубить процентов 10-20 параметров, она потеряет в точности в любой метрике не больше процента, зато будет в несколько раз меньше. Нужна новая архитектура вроде перцивера от глубокомозгов и лучшие алгоритмы обучения чем есть сейчас, а они уже по определению будут работать на текущем оборудовании. Просто сейчас модно наращивать параметры до мильярдов трильенов тыщ чтобы выебнуться.
578 2110332
>>109285

>А GPT-4-5-10 их не порешает?


И каким образом?
579 2110457
>>110332
Стране не хватает копирайтеров, блогеров, мемных телеграм каналов - так вот их гпт-456 и заменит
580 2110461
>>110201

> Просто сейчас модно наращивать параметры до мильярдов трильенов тыщ чтобы выебнуться.


Эта мода никуда не денется. Просто будут пытаться всунуть в один размер больше параметров, не просто настакать побольше слоёв, а с умом, как в gpt-j-6B. Ну и сами трансформеры будут дальше развивать, attention is all you need это не венец развития машобчика.
581 2110550
>>110461
Так то все так но размер =/= параметры. В gpt-j используют bf16, который занимает значительно меньше места в памяти чем fp32 или fp16. То есть значения одни хоть и с меньшей точностью а размер в памяти разный, и по сути разницы нет. Это как хранить картинку на ntfs диске и на exfat, структура данных разная но они идентичны ладно, не совсем но это не столь важно.
Как по мне все идет или должно идти в сторону увеличения ценности каждого параметра чтобы в итоге скажем 300 миллионов параметров текущей нейронки были равны по метрикам 100 миллионам новой или что то вроде того, а их уже можно сжать в тот же bf16.
Анализ данных Алол 582 2111246
Салют, аноны.
Учусь в унике прикладная информатика профиль управление данными, однако в мае начал задрачивать js/react фронтенд то бишь, думал на изичах стать веб макакой с 300кк/нс. Крч не зашло мне, ебал эту верстку, знаю что фронтенд не только верстка, однако в большинстве компаний все равно придется верстать+с дизайнерами базарить + ебучие кабанчики никогда не знают че им надо(постоянные переделки функционала). Ну я решил таки взять на учебу, раз уже все равно учусь на аналитики почему бы не начать задрачивать дата сайнс, мб зайдет?выш.мат на среднем уровне мб ниже, большие проблемы с дифференциальными уравнениями, даже не начинал их учить
У меня вопрос: сильно сложно найти работу аналитиком в ДС? Видел тред где анон бомбил, что аналитиков типа не хватает, статьи читал, что аналитик данных одна из приоритетных на данный момент ниш. На сколько это правда?
583 2111345
>>110007
Чтобы научиться вертеть деревьями докер-контейнерами и кубером нужно идти девопсом поработать, или само придет как на работе появится необходимость? Никогда не работал с ними, хоть суть примерно представляю зачем это может быть нужно
584 2111385
>>111345
само придет
585 2111555
>>111246
Аналитик - предприимчивый кабанчик с чуйкой потребностей рынка и бизнеса, который знает питон.
586 2111725
>>110550

>В gpt-j используют bf16, который занимает значительно меньше места в памяти чем fp16


Чего? Они меньше места на кремнии занимают, а битов там столько же. Или я чего-то не знаю?
587 2111984
>>111725
Чуть обосрался, bf16 быстрее выполняется на tpu чем fp16.
588 2111987
>>078573 (OP)
Кароче меня наконец взяли как CV джуна в стартап. Наконец-то уволился с завода (это не шутка). Но по факту я делаю около айтишную работу, не ДС. Датасета нет (собираем). Нейронки пока не шатаем. По сути делаю все задачи за 2 рабочих дня параллельно смотря ютубчик. Остальное время ебланю. Вопрос к анонам. Хочу какой то пет проект для того, чтобы натренироваться лучше (потому что реальный опыт работы в DS пока чето не предвидится), чтоб на всякий случай начать искать новую работу. Предложите что-нибудь более-менее реальное, чтоб новый работодатель понял что я умею, да и самому поднять навык, но не супер сложное. Хотелось бы сферу компьютер вижон. Кэглопарашу не предлагать. У меня нет рабочей машины, только ноут. Вообще я так понимаю что сидеть на кэгле через коллаб это только для каких-то учебных дел, выйграть соревы нереал. Разбираться в открытом коде на кэгле уже не интересно, да и как это применить в своем проекте я хз.
589 2111998
>>111987
Суть каггла в том что если у тебя нету рабочей машины он ее тебе дает на 30-50 часов в неделю. А так очевидно пиши свой блокнот и уже на нем тренируй как придумаешь что тренировать, в джупитерских блокнотах это в любом случае удобнее чем через запись в файл и дебаггинг сокращается в разы.
А так попробуй какую нибудь шаблонную задачу но с усложнением, например ту же сегментацию, скажем определение номеров автомобилей а потом их обрезание, апскейл и перевод в текст.
590 2112035
>>111998
понятно что в блокноте удобнее, это очевидно

>определение номеров автомобилей а потом их обрезание, апскейл и перевод в текст


Вот это интересная идея. Спасибо.
Чтоб ты понимал о каком проекте я говорю: Для поиска работе я сделал вебморду на AWS. Там было несколько моделей простецких, типо кидай картинку и тебе в ответ придет переработаная GANом. Сообщение с AWS кидалось на другую машину, где вертелась модель. Вот с таким проектом я искал работу. Хочу примерно так-же, только лучше.
591 2112590
>>111987
Так собирание и чистка данных и есть дс. Фитпредикт для нейронной сети написать это 0.1% работы датасаентиста.
592 2112593
>>112590
Ну не 0.1%, а побольше. Но как я понимаю, у него даже не очистка данных, а просто сбор, потому что контора только начала их собирать.
593 2113228
Учу склерн по Герону, я должен охуевать от всех видов проблем и кернелов SVM, поскольку я учил ТФ до этой книги мне теперь кажется что нейронки проще чем алгоритмы как будто бы. Я конечно продолжу, но может это просто Герон хуйней занимается и лезет в залупу там где надо просто перечислить и накидать примеров?
594 2113442
>>112593
да, все так. Пока только сбор
Тред утонул или удален.
Это копия, сохраненная 1 августа 2021 года.

Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее

Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
« /pr/В начало тредаВеб-версияНастройки
/a//b//mu//s//vg/Все доски