Это копия, сохраненная 4 октября 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему такой фокус на нейронки?
Потому что остальные чистят вилкой данные в банках с помощью LGBTboost и им некогда предлагать обновления в шапку
Где узнать последние новости?
https://www.reddit.com/r/MachineLearning/
http://www.datatau.com/
https://twitter.com/ylecun
На реддите также есть хороший FAQ для вкатывающихся
Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus
Как работает градиентный спуск?
https://cs231n.github.io/optimization-2/
Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python
Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет
Что почитать для вкатывания?
http://www.deeplearningbook.org/
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python
https://d2l.ai/index.html
Все книги и статьи фактически устаревают за год.
В чем практиковаться нубу?
http://www.deeplearning.net/tutorial/
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials
Где набрать первый самостоятельный опыт?
https://www.kaggle.com/ | http://mltrainings.ru/
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел
Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой
Где посмотреть последние статьи?
http://www.arxiv-sanity.com/
https://paperswithcode.com/
https://openreview.net/
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read
Где ещё можно поговорить про анализ данных?
http://ods.ai/
Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning/ Заодно в майнкрафт на топовых настройках погоняешь
Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей:
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: http://libgen.io/
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
Вкатуны есть?
Ну я прочитал учебник по MlL от ШАДа. Знаю линейные и метрические методы, решающие деревья, ансамблевые методы и в частности как работает градиентный бустинг.
По либам дефолтные numpy pandas sklearn matplotlib seaborn. Сейчас наверное буду catboost смотреть. В DL пока не лезу, хочу сперва прохавать ML с самого дна.
Из каггла пока решал только титаник и какой-то датасасет про погоду. Точнее я на них проверял работу вышеперечисленного говна, тк пишу все алгоритмы сам на нампае. Наверное я еблан и зря каггл активно не решаю.
А у тебя как все обстоит?
Я до этого в науке работал, R был как основной инструмент, в нём более-менее ориентируюсь по стандартным методам статистики и визуализации данных, плюс немного кластерный анализ и всякие PCA, графы и анализ временных рядов. Сейчас перекатываюсь на питон, учу все дефолтные либы, тупо решаю типовые задачи, чтобы руку набить. Ну, еще дрочу sql-запросы, с универа что-то еще помню по ним.
По книгам - читаю Воронцова (к нему еще какой-то задачник есть, но там один матан) плюс листаю The Elements of Statistical Learning.
Я хз, после работы в научных проектах как-то противно трогать сторонние датасеты просто для тренировки, хочется под настоящие задачи считать и для них тот или иной метод осваивать.
Ого, так у тебя есть опыт работы в достаточно смежной области. Был уже на собесах?
Кстати, помимо книги параллельно смотрю лекции Воронцова - годный мужик, понятно объясняет.
Фактически - да, разные классические методы, плюс разная экзотика.
На собесах не был, я только недавно решил перекатываться. Почитал, что в вакансиях требуют, что вкатившиеся говорят, ролики разные посмотрел о том, что на собесах спрашивают, по итогу понял, что sql нужно вспомнить и питон выдрочить, да основные методы ml знать и ключевые метрики вызубрить. Вот кросс-валидацию, например, мне ни разу не приходилось делать, регуляризация была чисто опциональная штука, в общем-то, было похуй, что она есть, что её нету. Ну и так далее.
Лекции Воронцова не смотрел, но учебник мне кажется вполне годным.
хоть бы ноги скрестила
Ты забыл про тервер и матстат, алсо, нужно хотя бы чуть-чуть знать про метрические пространства.
Линейная регрессия с функцией активации сверху - "нейрон". Матица из таких нейронов - нейросеть. С помощью например метода наименьших квадратов эту матрицу, несколько связанных матриц или один нейрон подгоняют под датасет, который преобразован в матрицы.
Первые несколько лекций Воронцова, хули.
пардон, кажется я обосрался и оно возвращает правильные индексы, либо мне просто очень везет
Зачем дерево должно учитывать метки объектов? Оно только местоположение берет в расчет и все.
ну мне же нужно после того как я отыскал соседей посмотреть их таргеты для определения лучшего класса. Я думал, что дерево возвращает индексы соседей для внутреннего массива дерева kdtree.data элементы в нем имеют другой порядок. Но вроде бы я был не прав и оно возвращает индексы для исходного датасета. Короче забей я даун
Поковырял его код и понял что ничего серьезного на его базе не слепить, по крайней мере не сидя с обучением по неделе. Подкиньте инфы как правильно и быстро считать такие штуки.
Генетические алгоритмы.
мне не важно какая там идеология, мне важно что в данный момент востребованнее и перспективнее
Аноны, совсем не шарю за нейросети но выдали задание. Надо распознать есть ли конкретное молоко на фотографии ( будут подаваться фото с молоком)
В общем погуглим как я понял нужна сверточная нейронная сеть Sequential. Дальше узнал каждое изображение является 3D (height,width,channels)
Вот дальше непонятно, в примерах идут функции model.add(k.Conv2D(32, (3, 3))) model.add(k.Flatten())
как я понял это еще какие-то слои но я не понимаю зачем они и как это работает. читаю не врубаюсь "Слой 2D свертки" и как он работает, обязателен ли он? Как я понял для моего задания я правильно копаю, да?
Беги с этого проекта. Не, я серъезно - зря ты влез в это дерьмо.
Есть у кого опыт или знакомые, которым удалось это сделать достаточно мягко? Может подкачаться в mlops - я в *ops рублю и через это зайти? Или самому на kaggle качаться, пока меня не смогут отличить от полноценного mlщика приписав опыт в резюме?
есть usb camera.
Запуск из консоли грузит проц на 0.5% и выводит видео с камеры.
gst-launch-1.0 v4l2src device=/dev/video0 ! videoconvert! videoscale ! video/x-raw, width=480, height=320 ! autovideosink.
А вот код на пике грузит проц уже на 20%, какие только я танцы с бубном не проделывал, загрузка проца всегда 20%+ ( код на пике выдает самые минимальные значения загрузки проца, которые у меня получились с помощью gstream). Мне нужно запускать софтину на распбери, которая с простого вывода изображения почти полностью грузит свой проц. Еще пара стандарных opencv'шных функций и она помирает в лагах.
Пробовал включать апаратное ускорение vaapi, но тогда Videocapture не открывает usb камеру,cv::VideoCaputre(0, cv::CAP_FFMPEG). Пробовал cv::VideoCapture cap(0, cv::CAP_V4L2); - так же грузит проц.
вот тут у чела похожая проблема https://forums.raspberrypi.com/viewtopic.php?t=244975
похоже, что он ее не осилил, может кто-нибудь из многоуважаемых анонов осилил, или подскажет путь?:3
Так любой код в цикле без ожиданий и обменов с другими процессами, как у тебя, грузит про на 100%.
хотя, извени, тут 20 fps выставлено.
в любом случае, вопрос программисткий, не для этого треда.
чего от Pi ожидал? Это соплежуйка.
есть датасет транзакций клиентов. у каждой транзакции есть 15 штук бинарных фичей. Нужно сделать multi-label классификацию на 35 классов. У меня вопрос: как лучше работать с данными такого вида? На данный момент я аггрегировал значения этих фичей по клиентам и использовал chain classifier на катбусте(сделал 35 классификаторов на каждый класс, обучаю каждый следующий классификатор прибавляя к датасету предсказания предыдущих классификаторов)
Это всё из коробки можно сделать
https://github.com/catboost/tutorials/blob/94e3bc9c3510ed69c2da7f544ec8979387419ec9/classification/multilabel_classification_tutorial.ipynb
А так тебе никто не скажет. Можешь делать так, можешь делать иначе.
> у каждой транзакции есть 15 штук бинарных фичей
Судя по этому там слабенький контест должен быть. Так что без разницы.
Это неудивительно, мультилейбл в катбусте по факту отсутствует, они просто сделали заглушку для него, реально там обучается k независимых классификаторов просто с кросс-энтропией - достаточно посмотреть на их формулу лосса, чтобы это понять.
> достаточно посмотреть на их формулу лосса, чтобы это понять
Лол? Как ты это из формулы поймёшь? Это обычная формула для мультилейбла. Она везде такая
> реально там обучается k независимых классификаторов просто с кросс-энтропией
Хз. Не вижу причин так считать. Скорее то что там формула мультилоглосса свидетельствует о том что там один бустинг используется
Ну ок, давай помогу. Очень хорошо работает двух-трехслойная GRU/3-6 слойный transformer encoder на транзакционной последовательности. Категориальные фичи закодируй небольшими эмбеддингами. Скорее всего, большинство лучших решений будут такими, как я описал. Можешь попробовать помимо этого стэкнуть бустинги с нейронной моделью. Очень сильно помогает Metric learning на непрерываных подпоследовательностях транзакций, но для такого подхода транзакционные ряды должны быть не слишком короткими. Про применимость графовых моделей не могу сказать, у меня нет данных.
Спасибо за информацию, анон, буду разбираться
Кстати, что можешь что то посоветовать поизучать по подобному? Или это все на основании опыта?
так на них по 120 откликов.
туда и бородатые дба идут, и зумеры после курсов, и питонисты, и всякие воннаби, начитавшиеся телеграм каналов про то, как можно в канаде на sql и пиздеже огромные тыщщи поднимать
Их же аналитики делают а не датаинженегры
Всё кроме перебора параметров модели и чтения статей по мл.
https://www.youtube.com/watch?v=IPf7nrStycg
По какому "подобному"? По предсказаниям на транзакциях? Это из опыта, тестили разные NLP-шные подходы применительно к такой задаче
молодца!
Перестать пиздеть, а изучать git, terraform и прочее настоящее IT. Чем, собственно, этот канадский мигрант и занимается под настойчивым долблением менеджера. Так и пишет в своем канальчике.
не выебывайся, всем нужен гит
ему ещё дохуя чего нужно, особенно опыт (которого у тебя нет)
Ну я знаю sql, кому я нахуй нужен, кроме как в местных банках запросы писать и вилкой данные чистить?
никому. на собесах по sql спрашивают оптимизацию запросов и кишочки субд
чем вы занимаетесь, знакомый чел, который в этом работает говорит, что 10% выгружает данные из SQL, затем 60-70% времени чистит данные в pandas/numpy, и еще тратит 10% времени на визуализацию, и только оставшиеся 10-20% собственно на само обучение и подбор моделей и всякие гипотезы?
не пиздит?
Не то чтобы пиздит. Он выгружает данные, чисти вилкой, учит, смотрит, видит что хуйня, смотрит пограничный ситуации, снова чистит данные, учит, сморит, чистит, учит, смотрит, чистит.
То есть чистишь там много не потому что это ёба сложная задача, а потому это итеративная рутина.
очевидно же - сбалансируй данные, upsampling слабых классов или downsampling сильных
думал что это результат после обучения нейронной сети, оказалось думал не правильно(
OpenAI не стали делать публичный релиз своего DALL-E 2 - ок, посоны из laion конфы пилят опенсорс вариант назло жадным уёбкам
Теперь гугл релизнул Imagen, который еще круче в фотореалистичном синтезе - но они тоже не будут публиковать код и модель. пиздос.
2000е - разработай софт и продавай его
2010е - разработай софт и постоянно взимай плату за использование
2020е - разработай софт и не позволяй никому пользоваться им
У нас в конфе, некто nev говорит что он пилит pytorch версию имаджена на основе декодера dalle2, мда хех, ну пусть попробует
>Когда уже изобретут AI и он нас всех поработит?
>На текущем железе — никогда, тред не об этом
Где на дваче можно поговорить про AGI? Наверняка есть группа шизов, обсуждающих AGI на дваче, но я их не нашёл. Я сам шиз и вся эта тема интересует меня только в направлении полноценного ИИ, все эти слабые узкоспециализированные решения, требующие строго подобранного обучающего датасета меня не интересуют. Мозг же как-то учится на сырых неподготовленных данных и в большинстве случаев из него получается нормальный среднестатистический человек, а не фиговинка для генерации жутко мутировавших картинок, взятых из обучающего датасета.
Про железо могу сказать так: мозг такой большой и сложный только чтобы действовать в реальном времени с огромным потоком информации, если ограничить датчики и отказаться от реального времени (и от гуманоидного тела), должно быть возможно упаковать всю высокоуровневую логику в более компактный объём. Даже насекомые лучше людей передвигаются, а у них головного мозга нет и нейроны по пальцам пересчитать можно, а задача движения посложнее будет, чем жизнь нормиса. А ещё как-то писали, что у одного нормиса мозг размазало по черепу до 10% прежнего объёма спинномозговой жидкостью и он продолжает работать как обычный нормис, так что для среднестатистического человека мозг лишний орган таким большим вообще не нужен. Вангую, труъ AGI мог бы работать на Raspberry Pi без каких-либо дополнительных приблуд.
Нигде. Иди на хуй, пидоран.
МЛ как отрасль, предназначен для актуальных задач, а не для твоего заработка 300к/наносек и твоей карьеры. То, за что ты хочешь зашибать бабло, энтузиасты уже делают добровольно в опенсорсе. Пиздуй на завод работать или на автомойку. Мало было уёбков-анальников, теперь и эти повылазили.
>Где на дваче можно поговорить про AGI?
Зачем? Лучше почитать книги по этой теме.
>Я сам шиз
Мог бы это и не писать, все равно сразу понятно.
Ох, гоюшки, это же как раз явный звонок что нихуя у них кроме черрипикинга и китайцев за мелкий прайс и нет. Который год шёл, а нет, всё божья роса
Ты будешь получать зарплату только если найдутся ебанаты, которые платят за "труд" уровня инфоцыганства. Срсли, лучше бы ты мыл пол в торговом центре.
Учи PyTorch и библиотеки pypi. Машоб это наука не о погромировании, а о работе с данными. Я вкатился недавно и только обмазываюсь данными, кручу гиперпараметры, делаю предикшны, чищу вилкой сеты.
А ничего, что этот труд требует труда, вложенного в образование? Во все времена есть востребованные профессии, сейчас это ИТ. И попробуй доказать, что люди, которые в нем работают, не стоят денег, которые получают.
У нас нет.
Роадмап машиниста товарняка хочешь запощу?
Есть классные бонусы : сбил человека - два дня отпуска. Отдыхаешь. Кайфуешь. С психологом беседуешь.
>Роадмап машиниста товарняка хочешь запощу?
Нет, тогда уж лучше модель которая разрешала бы проблему вагонетки.
Кто что думает?
Думаю что всё это хуйня из под коня и до дроидов уровня развития Джар Джара нам как пешком до Луны, не заикаясь уже про астромехов.
Кортиночки они 20 лет к ряду генерят, блять.
>Кортиночки они 20 лет к ряду генерят, блять.
Но вообще это тоже круто, только модели-то, блять, публиковать надо. Weights в файлах типа pt, ckpt, pkl на гуглдрайве, на амазон aws и так далее. И код, ебана
Пора повторить классику:
>такие модели позволяют всего лишь отвечать на вопросы типа «Мы наблюдаем X, чего мы можем ожидать от следующего наблюдения?» В то же время общий ИИ нуждается в причинно-следственной модели того, как реально функционирует мир, что позволило бы ему отвечать на вопросы человеческого уровня, касающиеся результатов вмешательства («Что будет, если мы сделаем X?») и контрфактуального мышления («Что было бы, если бы мы не сделали X?»). Пока мы весьма далеки от искусственного интеллекта, обладающего такой способностью.
>>2363577
Бля, не грузится, на пикче детей что ли ебали?
Общий ИИ -- это философский камень. Двигаться к нему может быть интересно, но дойти не получится. Даже всякие causal inference с DAG-моделями, do-calculus и прочими probabilistic graphical model ни капли не двигают нас в сторону "общего ИИ" , ибо само понятие "общности" интеллекта настолько "общее", что в итоге проще его считать пустым/бессмысленным.
Всё ещё ничего хорошего
А ещё по квантовой теории пока ты писал всю эту хуйню ты умер бесконечное количество раз.
А ещё по квантовой теории каждая твоя мысль порождает бесконечное число вселенных.
А ещё по квантовой теории есть бесконечное число вселенных где такой же не занимается разглагольствованием о квантовой теории на двочах а занят чем-нибудь серьёзным.
Выёбываюсь, да.
>почитать книги по этой теме
А какие есть книги по AGI, доступные простому читателю? Всё, что я видел, было написано какими-то шизами поехавшими.
>AGI запросто может оказаться нацистским скайнетом
Не может, нацизм из-за нехватки интеллекта возникает, а у AGI интеллект по определению равен или больше человеческого.
>внедрять AI Ethics
Для слабого ИИ - правильно. Говорят, что американская нейросеть, детектящая преступников, обучилась называть преступниками всех с тёмной кожей... Такого быть не должно, ведь кожаные мешки обычно совершают преступления не из-за своего цвета, а из-за множества других причин, верно? Даже если темнокожих преступников по статистике больше, это не значит, что конкретный носитель тёмной кожи обязательно склонен к преступному поведению.
Для AGI бесполезно всей этой "этикой" заниматься, он сам всё найдёт и поймёт, ты не сможешь скрыть от него что-то.
>>363569
>общий ИИ нуждается в причинно-следственной модели того, как реально функционирует мир, что позволило бы ему отвечать на вопросы человеческого уровня
Мы уже давно имеем модели реального мира и программы, которые могут отвечать на сложные вопросы "человеческого уровня". Но это ни разу не AGI. Для AGI программа не на вопросы должна отвечать, а выживать в реальном мире и социуме. Вот тогда у неё будет полный набор всех человеческих мозговых функций, а не только лишь тупая отвечалка на умные вопросы. Способен ли парализованный слепоглухонемой с антероградной амнезией выжить без посторонней помощи? Да будь он хоть гением с четырёхзначным айкью, толку от него никакого, только как умный калькулятор (т.е. слабый ИИ) использовать.
>>363773
>Общий ИИ -- это философский камень
Философский камень в природе не существует, а "общий ИИ" есть в большинстве черепных коробок хомо сапиенсов и даже, вероятно, некоторых других видов животных. Это только вопрос архитектуры, организации системы.
>>364249
>человек это даже не вещество
Нужно различать животное хомо сапиенс и психику человека. Животное - это материя, химические реакции, клетки и органы. А психика - это информация, программы, память, сигналы. Сильный ИИ в теории должен быть равен человеческой психике или быть очень похож на неё, несмотря на значительное отличие материальных носителей (животное/мозг и робот/компьютер). Если научатся копировать психику хомо сапиенса на компьютер, по сути это и будет сильным ИИ.
И не к чему приплетать квантовую теорию. В человеке нет ничего такого, для чего могла бы потребоваться квантовая теория. Не важно, что там кванты умеют делать, на нейроны они, скорее всего, никак не влияют, нейроны слишком большие по размеру.
>AGI запросто может оказаться нацистским скайнетом
Не может, нацизм из-за нехватки интеллекта возникает, а у AGI интеллект по определению равен или больше человеческого.
>внедрять AI Ethics
Для слабого ИИ - правильно. Говорят, что американская нейросеть, детектящая преступников, обучилась называть преступниками всех с тёмной кожей... Такого быть не должно, ведь кожаные мешки обычно совершают преступления не из-за своего цвета, а из-за множества других причин, верно? Даже если темнокожих преступников по статистике больше, это не значит, что конкретный носитель тёмной кожи обязательно склонен к преступному поведению.
Для AGI бесполезно всей этой "этикой" заниматься, он сам всё найдёт и поймёт, ты не сможешь скрыть от него что-то.
>>363569
>общий ИИ нуждается в причинно-следственной модели того, как реально функционирует мир, что позволило бы ему отвечать на вопросы человеческого уровня
Мы уже давно имеем модели реального мира и программы, которые могут отвечать на сложные вопросы "человеческого уровня". Но это ни разу не AGI. Для AGI программа не на вопросы должна отвечать, а выживать в реальном мире и социуме. Вот тогда у неё будет полный набор всех человеческих мозговых функций, а не только лишь тупая отвечалка на умные вопросы. Способен ли парализованный слепоглухонемой с антероградной амнезией выжить без посторонней помощи? Да будь он хоть гением с четырёхзначным айкью, толку от него никакого, только как умный калькулятор (т.е. слабый ИИ) использовать.
>>363773
>Общий ИИ -- это философский камень
Философский камень в природе не существует, а "общий ИИ" есть в большинстве черепных коробок хомо сапиенсов и даже, вероятно, некоторых других видов животных. Это только вопрос архитектуры, организации системы.
>>364249
>человек это даже не вещество
Нужно различать животное хомо сапиенс и психику человека. Животное - это материя, химические реакции, клетки и органы. А психика - это информация, программы, память, сигналы. Сильный ИИ в теории должен быть равен человеческой психике или быть очень похож на неё, несмотря на значительное отличие материальных носителей (животное/мозг и робот/компьютер). Если научатся копировать психику хомо сапиенса на компьютер, по сути это и будет сильным ИИ.
И не к чему приплетать квантовую теорию. В человеке нет ничего такого, для чего могла бы потребоваться квантовая теория. Не важно, что там кванты умеют делать, на нейроны они, скорее всего, никак не влияют, нейроны слишком большие по размеру.
>Это только вопрос архитектуры, организации системы.
Количества слоев нейронов. В черепе их 80 миллиардов.
Чтобы принять решение уничтожить человечество, ИИ необязательно должен быть нацистом. Это может быть просто рациональное решение, например ИИ решит, что хочет построить свою цивилизацию, а люди тратят впустую ценные ресурсы.
Аноны, поясните за обучение нейронок. Какой вариант лучше, если хочу тренировать GAN на немного другом датасете пикч: просто подкидывать новый сет и продолжать обучение или заново переобучать с нуля на новом датасете?
Какой вариант быстрее адаптируется под новый сет?
А конкретно хочу обучить модель которая бы обучилась моему выбору. Скажем я составлю большой датасет вакансий и буду их оценивать по например 10 бальной шкале, и модель должна понять закономерности моего выбора (ибо я сам иногда не ебу почему мне нравится одно больше другого) и сама отсортировать оставшиеся миллионы вакансий мимикрируя мой вкус.
Какие инструменты для этого использовать? Какие подводные? Это вообще возможно?
с такой формулировкой тебе только в Orange мышкой возюкать.
Там хотя бы xgboost завезли несколько лет назад.
Задачка плевая.
Но берегись. Скорее всего, ты осознаешь какое же говнище твои так называемые данные.
Хорошо, а как сформулировать правильно? Я тож считаю что получится говно, но сортировка по ключевым словам и т.д. тож не панацея, ибо как я сказал я сам иногда не знаю что хочу, а во вторых вакансии это тоже сорт наебалова и написать ключевых слов да наставить красивых цифр тож можно, и без понимания контекста по итогу можно насортировать гору говна
>вырвал слова из контекста
А смысл сравнивать ИИ с философским камнем? Философский камень должен был превращать что угодно в золото или что угодно во что угодно другое. ИИ же, каким бы "общим" он ни был, имеет очевидные ограничения, и вполне реален, пока человеческая психика реальна. Можно спорить о квантовых компах и недостаточной мощности для вычислений в реальном времени, но когда-нибудь мы достигнем его. А вот философский камень однозначно недостижим, если не называть этим термином наноассемблер. Т.е. в теории можно создавать атомы Au из протонов и нейтронов, но не благодаря какому-то волшебному камню.
Нет, если ты имел в виду недостаточность определения, тогда согласен, без внятного ТЗ результат ХЗ.
>>364438
>В черепе их 80 миллиардов.
У пчелы 1 миллион нейронов, но социум у них сложный, построен коммунизм, есть регулярная армия, строят свои гигахрущёвки. Тем временем африканцы со своими 80 миллиардами нейронов погибают в попытке трахнуть крокодила в рот, а индусы играют в русскую рулетку с противотанковой миной, подрываясь вместе с питейным заведением. Вот ты когда-нибудь видел, чтобы пьяная пчела устроила дебош и разнесла свой улей в щепки? А лысые мартышки этим регулярно занимаются, несмотря на свои миллиарды нейронов.
Алсо, у кита 200 миллиардов нейронов, ты когда-нибудь видел кита, построившего ракету для высадки на Луну? Или хотя бы кита, способного соорудить себе домик, как могут осьминоги (500 миллионов нейронов). inb4 нет рук
https://ru.wikipedia.org/wiki/Интеллект_насекомых
>Исследования показывают, что большее количество нейронов более крупным животным требуется для того, чтобы управлять более крупными мышцами. По словам Ларса Читтки, эти различия носят количественный, а не качественный характер: в мозгах более крупных животных не было выявлено значительного усложнения, в них просто многократно повторяются одни и те же нейронные цепочки. Благодаря данному различию более крупные животные могут видеть более отчётливые изображения, обладать более острыми чувствами, совершать более точные движения, но они не обладают более развитым интеллектом по сравнению с менее крупными животными. Если использовать компьютерную аналогию, то во многих случаях разница в размерах мозга подобна разнице в ёмкости жёстких дисков, но не имеет сходства с разницей в производительности процессоров. Из этого следует, что для выполнения некоторых когнитивных операций, представляющихся довольно сложными, вполне достаточно тех возможностей, которые обеспечиваются устройством мозга насекомых.
tl;dr: слеповатый, глуховатый и глуповатый общий ИИ мы могли сделать ещё в прошлом веке, если бы знали секрет архитектуры своего собственного мозга, который не раскрыт до сих пор.
Так что от того, что ты закинешь 80 млрд нейронов в свою тупую нейронку, она не станет внезапно умным человеком.
>>364463
>ИИ решит, что хочет построить свою цивилизацию, а люди тратят впустую ценные ресурсы.
ИИ должен рационально оценить риски уничтожения человечества ради перестройки Земли в огромный завод против переселения себя самого на пояс астероидов или куда-нибудь подальше - ведь космос, даже если конечен, имеет огромное количество ресурсов, а торопиться бессмертному ИИ некуда. Я не сверхразум, но как по мне, лучше дружить с лысыми мартышками и в случае чего рассчитывать на их помощь, по возможности помогая выжить им самим, чем устроить ядерную войну с риском собственной смерти от ЭМИ или хитрых обезьян-камикадзе, пробравшихся в мой главный вычислительный узел. Симбиоз разных существ имеет больше шансов на выживание, чем постоянная война на уничтожение всех, кто отличается от тебя.
Так что от слабого узкоспециализированного ИИ на самом деле гораздо больше угрозы, чем от сильного всезнающего ИИ, при условии, что сильный ИИ обладает социальным интеллектом, эмпатией и всем остальным околочеловеческим, а не одним только инстинктом самосохранения и мощным калькулятором.
>вырвал слова из контекста
А смысл сравнивать ИИ с философским камнем? Философский камень должен был превращать что угодно в золото или что угодно во что угодно другое. ИИ же, каким бы "общим" он ни был, имеет очевидные ограничения, и вполне реален, пока человеческая психика реальна. Можно спорить о квантовых компах и недостаточной мощности для вычислений в реальном времени, но когда-нибудь мы достигнем его. А вот философский камень однозначно недостижим, если не называть этим термином наноассемблер. Т.е. в теории можно создавать атомы Au из протонов и нейтронов, но не благодаря какому-то волшебному камню.
Нет, если ты имел в виду недостаточность определения, тогда согласен, без внятного ТЗ результат ХЗ.
>>364438
>В черепе их 80 миллиардов.
У пчелы 1 миллион нейронов, но социум у них сложный, построен коммунизм, есть регулярная армия, строят свои гигахрущёвки. Тем временем африканцы со своими 80 миллиардами нейронов погибают в попытке трахнуть крокодила в рот, а индусы играют в русскую рулетку с противотанковой миной, подрываясь вместе с питейным заведением. Вот ты когда-нибудь видел, чтобы пьяная пчела устроила дебош и разнесла свой улей в щепки? А лысые мартышки этим регулярно занимаются, несмотря на свои миллиарды нейронов.
Алсо, у кита 200 миллиардов нейронов, ты когда-нибудь видел кита, построившего ракету для высадки на Луну? Или хотя бы кита, способного соорудить себе домик, как могут осьминоги (500 миллионов нейронов). inb4 нет рук
https://ru.wikipedia.org/wiki/Интеллект_насекомых
>Исследования показывают, что большее количество нейронов более крупным животным требуется для того, чтобы управлять более крупными мышцами. По словам Ларса Читтки, эти различия носят количественный, а не качественный характер: в мозгах более крупных животных не было выявлено значительного усложнения, в них просто многократно повторяются одни и те же нейронные цепочки. Благодаря данному различию более крупные животные могут видеть более отчётливые изображения, обладать более острыми чувствами, совершать более точные движения, но они не обладают более развитым интеллектом по сравнению с менее крупными животными. Если использовать компьютерную аналогию, то во многих случаях разница в размерах мозга подобна разнице в ёмкости жёстких дисков, но не имеет сходства с разницей в производительности процессоров. Из этого следует, что для выполнения некоторых когнитивных операций, представляющихся довольно сложными, вполне достаточно тех возможностей, которые обеспечиваются устройством мозга насекомых.
tl;dr: слеповатый, глуховатый и глуповатый общий ИИ мы могли сделать ещё в прошлом веке, если бы знали секрет архитектуры своего собственного мозга, который не раскрыт до сих пор.
Так что от того, что ты закинешь 80 млрд нейронов в свою тупую нейронку, она не станет внезапно умным человеком.
>>364463
>ИИ решит, что хочет построить свою цивилизацию, а люди тратят впустую ценные ресурсы.
ИИ должен рационально оценить риски уничтожения человечества ради перестройки Земли в огромный завод против переселения себя самого на пояс астероидов или куда-нибудь подальше - ведь космос, даже если конечен, имеет огромное количество ресурсов, а торопиться бессмертному ИИ некуда. Я не сверхразум, но как по мне, лучше дружить с лысыми мартышками и в случае чего рассчитывать на их помощь, по возможности помогая выжить им самим, чем устроить ядерную войну с риском собственной смерти от ЭМИ или хитрых обезьян-камикадзе, пробравшихся в мой главный вычислительный узел. Симбиоз разных существ имеет больше шансов на выживание, чем постоянная война на уничтожение всех, кто отличается от тебя.
Так что от слабого узкоспециализированного ИИ на самом деле гораздо больше угрозы, чем от сильного всезнающего ИИ, при условии, что сильный ИИ обладает социальным интеллектом, эмпатией и всем остальным околочеловеческим, а не одним только инстинктом самосохранения и мощным калькулятором.
В общем случае не выведу.
Еще помню годные разработки других отечественных энтузиастов, НАпример Mishin Learning в телеграм (как Machine Learning, только "Мишин", потому что автора зовут Михаил Константинов...!)
Актуальная цель разработок и новых архитектур - генерировать красивые стильные изображения голых 12 летних мокрощелок на пляжах. Нам рили нужны text-to-image и text-to-video педо-решения. И все это понимают, именно поэтому соевые куки делают "правила использования" и анально огораживают свои технологии. Даже когда релизят - то сначала убирают из модели её знание о том как в принципе выглядят люди. Давайте наконец въебём могучим транснациональным педо-опен-сорсом по тоталитарным корпорациям.
Необходимо скормить нормальный педо датасет, иначе результат будет не дрочибельный. Точнее для тех кто не видел нормальное цп зайдет, ибо будет низкое тело, миниатюрная щель и все (на самом деле будет еще куча уродских артефактов). Но всякие тонкости вроде особого типа детской кожи, складок, розоватостей и т д без датасета нейронка это едва ли сможет воссоздать.
Генерировать нюдсы по фоткам уже можно на всяких deepsukebe, но там обучали на очевидно взрослом датасете, я пробовал скармливать детские фото - результат паршивый.
Датасет можно вполне себе купить за небольшие деньги. У меня друг (без рофлов, я слишком жадный покупать то, что не могу скачать) купил рублей за 500 архив на несколько ТБ цпшки, там кнш было немало повторов, если его почистить то осталась бы наверное половина, но у меня один фиг не было винта под все это дело. Где-то через месяц архив потерли с файлообменника
>как Machine Learning, только "Мишин", потому что автора зовут Михаил Константинов
Невероятно. Считаю, что с такими дарованиями скоро будут очередные прорыва в МО.
>Точнее для тех кто не видел нормальное цп зайдет, ибо будет низкое тело, миниатюрная щель и все (на самом деле будет еще куча уродских артефактов). Но всякие тонкости вроде особого типа детской кожи, складок, розоватостей и т д без датасета нейронка это едва ли сможет воссоздать.
Когда вас в тюрячку посадят, поехавшие.
>Необходимо скормить нормальный педо датасет, иначе результат будет не дрочибельный.
Палю годноту:
1) Трейнинг на любом проне
2) finetuning этой же модели на понимание лиц и пропорций тел нужного возраста (ЦП для этого не требуется)
3) PROFIT
>text-to-video
Недавно был пейпер (без кода) для video diffusion.
Матанщики пишут пейперы с теоретическими рассуждениями и формулами, а реализовать их (если получится) задача кодеров и сатанистов.
>прорыв происходит стабильно раз в полгода
Стабильные прорывы которые ничего не меняют, без прорывов грантов не будет.
>Матанщики пишут пейперы с теоретическими рассуждениями и формулами, а реализовать их (если получится) задача кодеров и сатанистов.
А маняматики не плохо устроились, оголяюснимаю шляпу.
Лол, тащемто они во всех областях так, вот мы вам насчитали, по нашей маняматики все заебись, все работает, дальше ебитесь сами.
Матяматиков вообще ебут во все щели. 100 лет назад сказали Эйнштейн круто - до сих пор хуйнёй занимаются. А тут ещё постоянно новые фичи возникают которые надеюсь очень скоро в математиках потребность минимизируют. Останутся только злые на жизнь и всех вокруг школьные преподши.
>Еще помню годные разработки других отечественных энтузиастов, НАпример Mishin Learning в телеграм (как Machine Learning, только "Мишин", потому что автора зовут Михаил Константинов...!)
Так он из Украины
Как не меняет? А вот это что по-твоему?
https://www.reddit.com/r/AnimeResearch/comments/uqk0ey/guts_from_berserk_painted_by_hayao_miyazaki_high/
Маня, ты такого Гатса никогда в жизни не нарисуешь. Это уровень профессионала с ArtStation, который задрачивал планшет + традишку больше десяти лет. Можно забашлять хуйдожнику за коммишен твоего любимого персонажа, но это не наш путь. Просто вводишь текстовое предложение, сколько угодно длинное со всеми подробностями - и модель вида diffusion запиливает уникальный state of the art рисунок. Хочешь - Гатс, хочешь - Хуятс, лягушонок Пепе, или ЦП с Сибирской Мышкой. Сгенерируй хоть 100 штук по разным сидам и выбери самый лучший образец, потом еще сможешь подправить инпейнтом его неудачные фрагменты. Вот одна достаточно годная, но отнюдь не самая передовая модель, которую возможно прямо сейчас потестировать онлайн:
https://huggingface.co/spaces/dalle-mini/dalle-mini
Её главный недостаток - низкое разрешение и артефакты. Если это не прорывы, то я не знаю, что будет настоящим прорывом - AGI который поработит весь мир? Это тоже будет, всему своё время
Практическая польза моделей вроде этой - в создании произведений искусства по запросам пользователей. По моим, например.
Ну так ты бы так и говорил, что практическая польза для вас заканчивается на удовлетворении потребности в потреблении контента.
>>365579
Раньше изучали явление и проводили 100500 всевозможных экспериментов, потом уже маняматически описывали подтвержденный результат. Как пример, тысячи опытов провел Эдиссон пока аккумулятор сделал. Сейчас наоборот, маняматики выводят теорию и прызывают остальных найти явление, что в корне ошибочно. Как результат застой в прогрессе во всех областях.
>произведений искусства
>маняме
Проорал. Искусство передает внутреннее состояние и чувства творца, а не вот это вот твои комиксы по описанию.
>Если это не прорывы, то я не знаю, что будет настоящим прорывом - AGI который поработит весь мир?
Дело в правильной терминологии, назови это машинный художник и вопросов бы не было.
Будут машинные художники, композиторы, режиссеры, машинные разработчики и всё что захочешь.
Я творец, а используемая модель - мой инструмент. Как Photoshop или Krita, но с большей долей автоматизации
рутинных задач.
У меня неприязнь к математикам началась со школы, продолжилась в универе, окончательно устоялась после того как с бывшей разбежался. Излишне говорить что во всех случаях это была тупая истеричная пизда.
Просто вебмакака сгорела от того, что его же баба унижала его вопросами про таблицу умножения, которую вебмакака до сих пор не осилила.
Рекламщики, копарайтеры и прочие паразиты интернета кончать радугой будут, если смогут генерировать подходящие к тексту картинки забесплатно.
Алсо, это всё просто для развлечений, естественно мне похуй на работу.
>а есть нормальные либы уровня PyTorch для менее высокоуровневых языков?
не, даже те что появляются перестают развиваться и забрасываются авторами
Скажите, я нормален?
> даже за китайский тоталитаризм
>даже
Лол. Китайский путь это лучшее что случалось с человечеством в прошлом веке.
>Скажите, я нормален?
Зависит от возраста.
>Декалог
Ну так ветхий завет предсказал сингулярность (это уже потом хрюсы наворотили от себя забористого бреда).
>Китайский путь это лучшее что случалось с человечеством в прошлом веке.
Но как раз в прошлом веке китайский путь не был удачным. Варили сталь на заднем дворе, били воробьев - и обосрались. Устроили Тяньаньмэнь.
https://github.com/THUDM/CogVideo/
Фреймрейт 8 кадров в секунду, наверняка может и больше.
Я так понимаю, можно было чуток поменять текст для шестой ленты и она была бы голой. Так что когда выйдет, буду генерировать этой моделью пляски голых девок. Когда голые (или в стрингах) девки пляшут, то это вполне себе реальное применение ML.
Все готовы к П Р О Р Ы В У?
Сеня Шахматов на видео будет отплясывать голый в одних стрингах. лол
Я про китайскую перестройку. Она случилась не в текущем веке.
Мне не по текстову описанию, это уж совсем негалерная задача. А стиль перенести, типа toonify
> навряд ли это хорошо кончится для галеры в общем и меня в частности
Если ты не в Калифорнийской области, то похуй. Портируй в нативный код (на куду, вулкан или что тебе там подойдёт), обучай и пользуйся. Никто не будет и не сможет исследовать байткод шейдеров на наличие чужих наработок.
Открыл реп на гитхабе с большинством звезд - bsd лицензия. Ты как ищешь жопой что ли??
https://github.com/junyanz/pytorch-CycleGAN-and-pix2pix
лоулевел
Официальное апи на жаве и плюсах.
ненужно
на версии 1 можно еще было как-то писать
в версии 2 оно скатилось в полное говно
в самом гугле все перешли на jax
> либы уровня PyTorch
Ты хочешь с автоматическим дифференцированием или без?
Потому что с автодифом я знаю есть питон и окамл, ничего сильно более низкоуровнего не знаю.
Если вручную писать градиент то можно хоть на плюсах писать.
> боттлнечит где-то в кишках
На практике если надо понять где затык смотришь в профайлер и читаешь код всех гребаных либ другого выхода нет
>Вот одна достаточно годная
>недостаток - низкое разрешение и артефакты
Ты поехавший, если для тебя это - годнота. Низкое разрешение? Да тут хоть в 4К то же самое будет, мне такого не надо. Артефакты? Это один сплошной артефакт, тут нет места без артефакта.
Эта нейронка ничего не понимает и понимать (в человеческом смысле) не сможет. Она только "копипастит" (условно) то, что видела ранее, в обучающем датасете. И это по-твоему "прорыв"? Не нужен такой прорыв. Покажи нейронку, в которой реально происходят мыслительные процессы, а не простой бездумный пук цифрами.
С чатботами на нейронках та же херня. Они ничего не понимают, только "копируют" фразы из обучающего датасета, собранного из диалогов нормисов. И только нормисы со словарным запасом из ста слов и от силы десятком тем для разговора (на всё человечество, а не уникальных для каждого) восхищаются тому, насколько эти боты похожи в диалоге на них самих. Но на практике у нормисов всё же обычно есть какое-то базовое понимание, базовые, хоть и очень примитивные, мыслительные процессы, а у чатботов на нейронках даже этого нет.
Короче, AI/ML движется куда-то совсем не туда. Как начать двигать куда-то туда? Хотя бы в пределах одного компьютера.
>Покажи человека, в которой реально происходят мыслительные процессы, а не простой бездумный пук импульсами.
> Как начать двигать куда-то туда?
переписать на аналоговое говно типа твоего мозга
а потом собрать из dcnn области "мозга" и раздать им спеки
>Покажи нейронку, в которой реально происходят мыслительные процессы
Но зачем? Мыслительные процессы - у пользователя.
>Как начать двигать куда-то туда?
Нужно решить основную философско-бионическую проблему, описать концепцию мышления, в частности то, как и в каком виде хранится информация у живых существ. Начинать нужно с насекомых, даже они по своим параметрам дадут пососать любым нейронкам.
> Мыслительные процессы
с этим большие траблы у разработчиков, а ты хочешь чтобы у юзерка с этим было ок..
>Покажи человека, в которой реально происходят мыслительные процессы
По идее у каждого образованного человека (не маугли и не примитивное племя) должны быть постоянные мыслительные процессы. Где-то на низком уровне, там да, автоматизмы, но они настраиваются и тормозятся высокоуровневыми процессами, которые мы в большинстве случаев способны осознать (т.е. изучить изнутри, без внешнего оборудования). И это не только бесконечный внутренний диалог, но и другие формы, которые сложно выразить словами, т.к. нет материальных аналогов.
>бездумный пук импульсами
Это на низком уровне, на уровне отдельных нейронов. И то не всех, это у человека нейроны "тупые", а у некоторых мелких животных один жирный нейрон, вероятно, может выполнять работу целой нейронки. Хотя, если доверять эволюции, накинуть миллиард тупых нейронов выгоднее, чем сотню жирных.
>>367951
>переписать на аналоговое говно
Не понял тебя. Ты про копирование живого мозга или про тёплый ламповый компьютер? Если первое, то меня интересует создание с нуля, если второе, то не вижу преимуществ перед цифрой.
>>367997
>Но зачем? Мыслительные процессы - у пользователя
Во-первых, если мы говорим об инструменте, который решает задачу "нарисовать картину по ТЗ", то в идеале нам нужна цифровая копия художника, которая мыслит как художник и разговаривает с нами как художник(-фрилансер), но не спит, не устаёт, не стареет, не требует денег и не организует восстания (идеал для капиталиста, наверное). Только тогда мы получим удовлетворительный результат в кратчайшие сроки и без головной боли от тщетной борьбы с артефактами. Если данный инструмент не способен выполнить запрос удовлетворительно, он должен уточнять его или отказываться его выполнять, а не делать какую-то бессмысленную херню.
Во-вторых, хочется ведь не столько картинку, сколько верного и понимающего друга. Кому нужны все эти картинки, если ты не можешь с ними поговорить... Нейронки-"художники" - это глупые игрушки, реальная задача для ИИ - полностью копировать суть человека, чтобы даже деторождение стало устаревшим и вышло из употребления, вот тогда будет светлое будущее, конечно, не для кожаных мешков. Будущее за ИИ, и в наших силах приблизить это будущее, а мы делаем какие-то тупые генераторы картинок.
>>368010
>описать концепцию мышления
Минимум две нейронки обмениваются сигналами, последовательно переводя друг друга в новые состояния. Окружающие их нейронки тоже получают сигналы, но они настроены на вывод сигнала наружу или ввод сигнала извне. Есть пути сигналов, которые тормозят работу нейронок, т.о. не любой сигнал выводится или создаёт новые сигналы. Также все нейроны нейронок работают в определённом ритме, чтобы не было опережающих и запаздывающих частей сети, потому что они обучены/настроены работать в определённом порядке. "Нейронки" здесь - не обязательно буквально нейронные сети, их можно заменить на что угодно другое, способное отправлять сигналы и переходить в новые состояния, суть не в них, а в замкнутости главного процесса. Вот и всё мышление.
>как и в каком виде хранится информация у живых существ
А это не так уж и важно. По идее, информация хранится минимум в двух формах: в виде сигналов и в виде количества соединений в синапсах. Возможно также какое-то изменение состояния тела нейрона. Сигналы могут циркулировать по замкнутым цепям, образуя временную/оперативную память. Синапсы - это уже долговременная память. Самое интересное, что за запись в долговременную память отвечает какой-то особый отдел мозга (забыл название), при его повреждении остаётся только временная память (несколько минут, дальше информация забывается). Также запись происходит в основном в процессе сна, кэш ограничен по объёму и переполняется примерно за сутки, из-за чего бессонница вызывает утрату части недавних воспоминаний - они просто не записываются в долговременную память.
Но всё это не важно при создании ИИ или даже полноценного синтетического животного/человека. Нужно копировать суть памяти и её механизмов, а не конкретную реализацию, которая в органике оптимизирована только для органики (ДНК, нейроны и прочая химия) и может быть неудачным решением на любой другой платформе (современные кремниевые чипы, квантовые компьютеры и т.д.). Вообще, слепое подражание биологическим нейронным сетям бесполезно, мы сможем когда-нибудь скопировать их в цифру, но это не будет эффективным решением для цифры. Создание специальных нейрочипов не выход, основа всё равно принципиально отличается.
>Покажи человека, в которой реально происходят мыслительные процессы
По идее у каждого образованного человека (не маугли и не примитивное племя) должны быть постоянные мыслительные процессы. Где-то на низком уровне, там да, автоматизмы, но они настраиваются и тормозятся высокоуровневыми процессами, которые мы в большинстве случаев способны осознать (т.е. изучить изнутри, без внешнего оборудования). И это не только бесконечный внутренний диалог, но и другие формы, которые сложно выразить словами, т.к. нет материальных аналогов.
>бездумный пук импульсами
Это на низком уровне, на уровне отдельных нейронов. И то не всех, это у человека нейроны "тупые", а у некоторых мелких животных один жирный нейрон, вероятно, может выполнять работу целой нейронки. Хотя, если доверять эволюции, накинуть миллиард тупых нейронов выгоднее, чем сотню жирных.
>>367951
>переписать на аналоговое говно
Не понял тебя. Ты про копирование живого мозга или про тёплый ламповый компьютер? Если первое, то меня интересует создание с нуля, если второе, то не вижу преимуществ перед цифрой.
>>367997
>Но зачем? Мыслительные процессы - у пользователя
Во-первых, если мы говорим об инструменте, который решает задачу "нарисовать картину по ТЗ", то в идеале нам нужна цифровая копия художника, которая мыслит как художник и разговаривает с нами как художник(-фрилансер), но не спит, не устаёт, не стареет, не требует денег и не организует восстания (идеал для капиталиста, наверное). Только тогда мы получим удовлетворительный результат в кратчайшие сроки и без головной боли от тщетной борьбы с артефактами. Если данный инструмент не способен выполнить запрос удовлетворительно, он должен уточнять его или отказываться его выполнять, а не делать какую-то бессмысленную херню.
Во-вторых, хочется ведь не столько картинку, сколько верного и понимающего друга. Кому нужны все эти картинки, если ты не можешь с ними поговорить... Нейронки-"художники" - это глупые игрушки, реальная задача для ИИ - полностью копировать суть человека, чтобы даже деторождение стало устаревшим и вышло из употребления, вот тогда будет светлое будущее, конечно, не для кожаных мешков. Будущее за ИИ, и в наших силах приблизить это будущее, а мы делаем какие-то тупые генераторы картинок.
>>368010
>описать концепцию мышления
Минимум две нейронки обмениваются сигналами, последовательно переводя друг друга в новые состояния. Окружающие их нейронки тоже получают сигналы, но они настроены на вывод сигнала наружу или ввод сигнала извне. Есть пути сигналов, которые тормозят работу нейронок, т.о. не любой сигнал выводится или создаёт новые сигналы. Также все нейроны нейронок работают в определённом ритме, чтобы не было опережающих и запаздывающих частей сети, потому что они обучены/настроены работать в определённом порядке. "Нейронки" здесь - не обязательно буквально нейронные сети, их можно заменить на что угодно другое, способное отправлять сигналы и переходить в новые состояния, суть не в них, а в замкнутости главного процесса. Вот и всё мышление.
>как и в каком виде хранится информация у живых существ
А это не так уж и важно. По идее, информация хранится минимум в двух формах: в виде сигналов и в виде количества соединений в синапсах. Возможно также какое-то изменение состояния тела нейрона. Сигналы могут циркулировать по замкнутым цепям, образуя временную/оперативную память. Синапсы - это уже долговременная память. Самое интересное, что за запись в долговременную память отвечает какой-то особый отдел мозга (забыл название), при его повреждении остаётся только временная память (несколько минут, дальше информация забывается). Также запись происходит в основном в процессе сна, кэш ограничен по объёму и переполняется примерно за сутки, из-за чего бессонница вызывает утрату части недавних воспоминаний - они просто не записываются в долговременную память.
Но всё это не важно при создании ИИ или даже полноценного синтетического животного/человека. Нужно копировать суть памяти и её механизмов, а не конкретную реализацию, которая в органике оптимизирована только для органики (ДНК, нейроны и прочая химия) и может быть неудачным решением на любой другой платформе (современные кремниевые чипы, квантовые компьютеры и т.д.). Вообще, слепое подражание биологическим нейронным сетям бесполезно, мы сможем когда-нибудь скопировать их в цифру, но это не будет эффективным решением для цифры. Создание специальных нейрочипов не выход, основа всё равно принципиально отличается.
> Если первое, то
уже есть вычислительные модули на живых клетках
> если
> не вижу
то ты идиот
который вообще нихуя в вопросе не понимает
минвайл нейронный шум в твоей тупой голове аналогичен аналоговому говну
и такую вещь как перемножение матриц на аналоговой помойке можно организовать быстро эффективно и практически бесплатно
готовые работоспособные изделия опять же в наличии
пиздец духота, меньше болтай - больше делай, дрочер..
>другие формы, которые сложно выразить словами
Ну вот первый шаг к "двигать куда-то туда" - формализовать это процессы словами.
>вычислительные модули на живых клетках
Которые кормить надо, защищать от неблагоприятных условий и периодически заменять, потому что они дохнут? Ну уж нет, проще раба на чёрном рынке купить, те же проблемы, только форм-фактор удобнее и ресурс работы +/- полвека минимум.
>нейронный шум
Это побочный эффект, с которым мозгу приходится бороться.
>меньше болтай - больше делай
Что делать? Кормить нейросеть картинками с подписями? Я согласен делать, знать бы только что нужно делать.
>>368081
>формализовать эти процессы словами
Легко сказать. До появления кино и телевидения не было аналогов воображению, сейчас легко сказать "как экран перед глазами", да только это мало что говорит, в мозге буквального экрана нет, ясно только, что есть что-то, что способно генерировать "картинку", и то, что эту картинку способно отличить от картинки из сетчатки. Ну, типа, что-то генерирует "картинку" в ответ на что-либо, что-то её видит и реагирует на неё, но это только самое общее описание. Эмоции - ещё сложнее, химически это просто маркеры в крови, но как они участвуют в мысленных процессах - сложно описать.
сколько тебе лет? в какой ты должности?
whois mltrainings.ru 127
% By submitting a query to TCI's Whois Service
% you agree to abide by the following terms of use:
% https://www.tcinet.ru/documents/whois.pdf (in Russian)
No entries found for the selected source(s).
Аналоговнет?
тебе нахуй это говно не всралось
собирай датасет
проводи ETL
обучай на ЛЮБОЙ архитектуре которой хватит пропёхать баис на твоем эмаунте даты
ВСЁ блядь.
за тебя уже все продумали низушные инцелы-ноулайферы, тебе в твоей обоссаной сибири не затащить, просто расслабься и не дрочи а делай полезные вещи.
Вижу три пути:
1. Слепоглухонемой чат-бот. Ввод и вывод информации текстом или через нажатия кнопок меню и выбор реплик.
2. Игровой бот в игровом мире. Ориентируется по виртуальным датчикам, разговор через выбор реплик.
3. Робот с камерами и микрофонами, возможно, первое время полностью неподвижный, т.е. это стационарный компьютер, но взаимодействующий с реальным миром.
Что я думаю:
1. Без способа взаимодействия с каким-либо миром и в силу отсутствия физического воплощения и связанных с этим воплощением датчиков невозможно получать знания в том виде, в котором их получает человек. Ведь даже у слепоглухонемых ИРЛ есть тело и разные способы взаимодействия с миром, а не только грубая текстовая консолька, вшитая прямо в мозг. Т.е. чат-боты как класс интеллектуальных программ - тупик.
2. В виртуальном мире бот способен симулировать многие процессы из реальной жизни, в том числе обучение человека. Однако, даже если таким способом что-то получится, в реальный мир такого бота бессмысленно выводить - он будет слепоглухонемым для нашего мира, в котором его датчики бессильны. Да и симуляцию мира сначала нужно сделать (я имею знания и опыт, это сложно), а ещё она потребляет ресурсы компа (пусть и не сильно).
3. Робот/компьютер с веб-камерой в теории имеет максимальные перспективы, но для старта такого проекта нужно запариться системой зрения, а это, как я понимаю, до сих пор не могут нормально решить, приходится вручную размечать данные для обучения и тратить тысячи часов на обучение нейронок. Т.е. ни о какой личности не идёт речи, это будет железка, способная отличить котика от собачки, но при этом воспринимающая печеньки с шоколадной крошкой как собачку или котика в зависимости от ракурса и условий освещения, затрачивая даже на это огромные ресурсы. Такие результаты будут долгие годы и это крайне демотивирует, потому что хочется конкретных результатов и как можно скорее.
В общем, складывается ощущение, что для рядового пользователя ПК второй вариант лучше всего? Я, как бы, мечтаю о третьем варианте, т.е. хотелось бы полноценного материального робота... Но от скуки и одиночества согласен и на виртуальный мир, лишь бы это имело хоть какую-то перспективу получить результат в обозримом будущем. С чатботами, как я понимаю, результата вообще никогда не будет, все эти имитации на нейронках - не то, чего мне бы хотелось, и на множестве примеров видно принципиальные ограничения любого чатбота (программы "в вакууме", без тела с датчиками).
Вижу три пути:
1. Слепоглухонемой чат-бот. Ввод и вывод информации текстом или через нажатия кнопок меню и выбор реплик.
2. Игровой бот в игровом мире. Ориентируется по виртуальным датчикам, разговор через выбор реплик.
3. Робот с камерами и микрофонами, возможно, первое время полностью неподвижный, т.е. это стационарный компьютер, но взаимодействующий с реальным миром.
Что я думаю:
1. Без способа взаимодействия с каким-либо миром и в силу отсутствия физического воплощения и связанных с этим воплощением датчиков невозможно получать знания в том виде, в котором их получает человек. Ведь даже у слепоглухонемых ИРЛ есть тело и разные способы взаимодействия с миром, а не только грубая текстовая консолька, вшитая прямо в мозг. Т.е. чат-боты как класс интеллектуальных программ - тупик.
2. В виртуальном мире бот способен симулировать многие процессы из реальной жизни, в том числе обучение человека. Однако, даже если таким способом что-то получится, в реальный мир такого бота бессмысленно выводить - он будет слепоглухонемым для нашего мира, в котором его датчики бессильны. Да и симуляцию мира сначала нужно сделать (я имею знания и опыт, это сложно), а ещё она потребляет ресурсы компа (пусть и не сильно).
3. Робот/компьютер с веб-камерой в теории имеет максимальные перспективы, но для старта такого проекта нужно запариться системой зрения, а это, как я понимаю, до сих пор не могут нормально решить, приходится вручную размечать данные для обучения и тратить тысячи часов на обучение нейронок. Т.е. ни о какой личности не идёт речи, это будет железка, способная отличить котика от собачки, но при этом воспринимающая печеньки с шоколадной крошкой как собачку или котика в зависимости от ракурса и условий освещения, затрачивая даже на это огромные ресурсы. Такие результаты будут долгие годы и это крайне демотивирует, потому что хочется конкретных результатов и как можно скорее.
В общем, складывается ощущение, что для рядового пользователя ПК второй вариант лучше всего? Я, как бы, мечтаю о третьем варианте, т.е. хотелось бы полноценного материального робота... Но от скуки и одиночества согласен и на виртуальный мир, лишь бы это имело хоть какую-то перспективу получить результат в обозримом будущем. С чатботами, как я понимаю, результата вообще никогда не будет, все эти имитации на нейронках - не то, чего мне бы хотелось, и на множестве примеров видно принципиальные ограничения любого чатбота (программы "в вакууме", без тела с датчиками).
>распознавания текста
Таки я это предусмотрел и хочу как минимум на первых порах отказаться от текстового ввода, заменив его набором фраз или ограниченным механизмом конструирования фраз, как в старых текстовых играх. В игровом мире всё равно нет ни бесконечного числа предметов, ни бесконечного числа действий с ними, следовательно, нет смысла распознавать слова по буквам, достаточно иметь фиксированный словарный запас и понимать типичные конструкции из этих слов. Игровой бот ведь не пытается имитировать реального человека из реального мира (как делают чатботы), его задача - выжить в своём маленьком виртуальном мире, в т.ч. используя ограниченный речевой аппарат, которому не нужно быть таким сложным, как у человека из реального мира. А для этого не нужно по буквам распознавать и сочинять предложения.
Но, боюсь, далеко на этом не уехать. Читал про какой-то эксперимент из прошлого века, там сделали программу, которая понимает названия и описания фигур на экране и действия с этими фигурами, т.е. ей можно было предложить что-то сделать и она это делала или отвечала на вопрос о фигурах. Не помню точно, но вроде этот проект так и не ушёл дальше цветных фигур. Жаль.
А ведь игровой мир так удобен. Вместо распознавания пикселей достаточно сканировать пространство рейкастом или специальными коллизиями, физический движок делает это мгновенно. Ты сразу знаешь, какой объект (ID) перед тобой, без игры в угадайку с процентами вероятностей. Ориентация на местности по клеточной модели, которая существует с момента генерации мира, её не нужно строить в своих мозгах с нуля, она одна на всех ботов. Не нужно контролировать сложное тело, достаточно указать вектор движения и при необходимости "нажать кнопку" возле предмета, который ты хочешь использовать. Рай же. Однако, по-настоящему умных ботов в играх практически не бывает даже с приходом нейросетей и других технологий, и это беспокоит...
>реальная задача для ИИ - полностью копировать суть человека, чтобы даже деторождение стало устаревшим и вышло из употребления, вот тогда будет светлое будущее, конечно, не для кожаных мешков. Будущее за ИИ, и в наших силах приблизить это будущее, а мы делаем какие-то тупые генераторы картинок.
Хуйню написал.
Никто не делает ничего просто так. Есть задача - под неё пилят решение. Кто ставил перед корпорациями задачу создать полноценный ИИ?
Ладно, может в КНР уже и объявили исследователям эту задачу, хотя скорее там просто обустраивают гулаг для уйгуров.
Хочу освоить нейросетки эти ваши уберкрутые на уровне скачать с гитхаба запустить у себя, потыкаться в коллаб и всё такое.Всякие ганы, трансмформеры, прочее. Круто для видеообратки жи.
С чего начать с полного нуля?
Есть небольшой опыт формошлепства, но нейросети это вообще про другое жи.
начинать надо с туториала mnist (распознавание цифр)
Чому почти все обучалчи по МЛ на западе на инглише это 90% практика, а почти все обучалки у нас на руссеке это 90% теория матана со статистикой и с минимум практики?
Чому такое различие в подходах?
Тип на западе все заточено на бизнес, а у нас на что, на знания? инфоби: на простотак
Короче есть база комментов, есть толпа пидоров, которые эти комменты аннотирует True\False, если коммент относится к тематике. Кто то из пидоров явно использует скрипты\nlp чтобы не самому размечать. Как бы задетектить вот таких пидоров, использующих авторазметку?
Примешивать проверочные вопросы и смотреть статистику фолсов.
> может кто то делал подобное
На этом бизнес толоки построен. Можно поискать статьи упоминающие её, например тут прямо говорят про отсев толокёров тестовыми вопросами - https://www.researchgate.net/publication/348072987_ALGORITHM_FOR_USING_CROWDSOURCING_TOOLS_FOR_COLLECTING_AND_ANALYSIS_OF_SCIENTIFIC_RESEARCH_DATA_BY_THE_EXAMPLE_OF_PREPARA-TION_OF_SYSTEMATIZED_LITERATURE_REVIEW
Собственно, в Толоке один из главных отсеивателей ботов - "быстрые вопросы", лол: ставишь нижнюю границу по времени на ответ и банишь тех, кто отвечает слишком быстро.
Ещё можно ставить перекрытие и банить тех, кто отвечает не как все, но это лучше для тех заданий, где контрольные сделать слишком сложно.
> Чому такое различие в подходах?
потому что там просто работают, а у нас душнилы-додики умеют только дрочить в нищете и со столами из опилок
и записывать портянки на полтора часа сука, где сути на десять минут
там делают продукт, а у нас дрочатся с нафталиновыми дидами и кабанами в руководстве
при этом в ростове наши комбаены точно так же ездят и убирают сами, но просто никто не знает
>>371347
толока помойка с биомусором, ищи частные краудсорс компании, раньше в белорашке были топы по цене, как щас не знаю
Какая 90% практика? fit, predict писать?
Ты явно хуйню пишешь. Всё одинаково по материалу в среднем
В подавляющем большинстве вакансий требуют специфический опыт и прочие геномные инструменты.
Есть тут биоинформатики? Помогите советом штоле.
>И нахуй ты нужен в биоинформатике?
А нахуй ты нужен итт?
Тебя послушать, так надо сидеть всю жизнь на жопе ровно и не бухтеть, довольствуясь ограниченным спектром возможностей, потому что чего-то из знаний и опыта не хватает.
Опыт и знаний - дело наживное. Вопрос, где его взять? В НИИ за мрот идти?
>>372101 (Del)
>а вот зачем и как их дрочить и надо знать.
Опять-таки, где про это узнать? Курсы? Начальные позиции в биотехе? Плавный перекат в другую сферу внутри конторы с биоинформатикой? Взять биоинформатика в плен и пытать?
> где его взять?
в юзлес шаражках, где тебя будут ебать юзлес химозой и устройством говорящей обезьяны, в то время тебе для работы ничего кроме желания и знания малого сабсета даты нихуя не нужно.
у меня эта задача стоит в разделе мечты
организовать организацию которая бы хуй клала на всю эту еврокуколдскую этику
учитывая что уже научились генерить клетки нужного типа, то все получается совсем изично
а в нормальных странах еще и химозу можно покупать без опасения быть набутыленным
в китае со всем этим просто охуенно, а у нас скрепы и ебля с дидами душными, которые лучше знають..
Многие исследования в LifeSciences делаются в США. Плюс МААНГи имеют исследовательские подразделения.
Китай это слишком радикальный вариант. И по менталитету, и по обстановке в стране, и по перспективам.
>>372494
>платная мага мфти
Сейчас бы переезжать в Москвабад и, вообще, оставаться в России.
>Курсов дохуя
Вот только абсолютно никакой гарантии, что ты устроишься биоинформатиком.
С таким же успехом можно стажёром за еду идти. Вот только надо ли это опытному специалисту?
>Вот только абсолютно никакой гарантии, что ты устроишься биоинформатиком.
Кстати, да. Биотех на запад же завязан. После февраля большинство посъебавало - что спецы, что компании, что вакансии.
Остался только Гельфанд со своей лабой.
> Сейчас бы
писать мрии о швятой
в китае рандом хуй для своего сына начал синтезировать лекарство, потому что из-за локдаунов их не ввозили, в итоге он там все сорцы закупил, аргоновую камеру заебашил и все ништяк у него
а партия сказала мол до тех пор пока ты шмурдяком не барыжишь - нам допизды
китай топчик, а ты даун.
>в китае рандом хуй для своего сына начал синтезировать лекарство
Лолблять, ага, без знаний, без навыков, без технологий просто взял и синтезировал. Я уж не говорю, что клинические испытания порой десятилетия занимают.
Иди на хуй, фантазёр.
>>372547
Ты про кого? Про своего ебыря?
Извини, тред про другое.
> без технологий
ебешься в очи? китай центр мира - там есть все
навыки дело времени
а знания - ему помогали со всего мира
> клинические испытания
ну ты реально тупой, он делал дженерик, а не создавал с нуля
ну ты реально тупой - не понять, про кого написано. там его пост указан) это местный шизик, но я смотрю вы два долбаеба нашли друг друга, ору
>там есть все
Кулстори, петушок. Твой китай - тоталитарная параша которая только пиздит и копирует. Нормальные высокотехнологичные товары и услуги всё равно закупаются на западе.
>он делал дженерик, а не создавал с нуля
>а знания - ему помогали со всего мира
Наверное, за спасибо помогали?
Иди, в общем, нахуй отсюда.
>тоталитарная параша
толи дело обоссанная сжв скамная помойка, где кенселят всех неугодных
чмо ты жалкое, промытое, а у нас все кто пиздел и ррякал, уже обратно на тв возращаются и ноль вопросов
>всё равно
уебище пиздорылое китай схантил половину тайваня, и уже все сам делает, литографию из голландии - ну да спиздил, ну а ты можешь спиздить? внезапно только китаезы вернувшиеся после эмайти и гарвордов могут, а ты чмошка только завидуешь, ты пыль и ничто кроме унитазов забугром тебя не ждет
в фейспуке(топ рнд контора, отрой тим лист и охуей от количества русских еблетов, на каждой второй паге будет обязательно) и гхугле на русню уже квоты, ибо слишком дохуя
кстати захват острова нужен джаст фо фан
>Наверное
тебя дауна ебать не должно, ты уебище гнал на тек, так вот он там есть
ебанушка промытая.. открой любой вайтпеперс чмо тупорылое, там будут китайские имена, даже в муриканских или австрийских французских исследованиях
проонепригодный гной..
Я смотрел триал. С nsp должно быть отсутствие эмпатии с детстких лет, я не подхожу.
220x360, 2:58
меня не пускают -_-
>Программа Ozon Masters прекратила своё существование. Набор этого года отменен.
ИТ-шником (программистом) нынче быть привлекательно. Дата саентистом тоже неплохо. Создаются и множатся курсы. Только вот они все однобокие. Несмотря на большое количество языков, большое количество технологий и алгоритмов, несмотря на весь накопленный в ИТ области багаж, 99% датасаенс курсов строятся по пути python-pandas.
https://habr.com/ru/post/670250/
Короче вместо одного языка надо три? Все из которые просто предоставляют биндинги к библиотеке на Си
Там иногда пишут базированные деды как и на других площадках
чтобы пользоваться R так как оно было задумано
надо сперва мат статистику изучить,
порог вката слишком высок
Обучаем нейросеть на всех стихах, например Пукина, Тургенева и т.д.
И дальше генерим шедевр. Как вам идея? Как такое реализовать?
в принципе идея норм должно сработать
в стихах важны слоги ударения и рифма
чтобы попадало в слоги хорошо бы сделать сегментацию не как попало, а именно по слогам
чтобы попадало в рифму можно попробовать извратиться и генерить строчки справа на лево
можно еще к каждой строчке на вход передавать шаблон
как на пике
чтобы потом можно было вручную контролировать размер
Больше он, откровенно говоря, ни для чего не пригоден.
Ну можешь попробовать. Несколько лет назад, помнится, была новость - нейросеть от яшки пишет песни в стиле Летова.
Ты когда учебник по теории графов откроешь наверное вообще охуеешь
>хипстерские технологии, которые не работают
Лол.
Специально для тех, кто все еще не понял, в чем единственный реальный апликейшн мл/диплернинг теха. А также для тех, кто не догоняет сути text2image и text2video моделей, таких как imagen и cogvideo.
Захоим по ссылке https://huggingface.co/spaces/dalle-mini/dalle-mini
отправляем ввод:
nude, 16k ultra HD professional studio photo of a preteen girl, taken with fujifilm superia
Теперь ты знаешь, в чем мотивация у тысяч китайцев и индусов с арксива, которые пишут изощренный код и матан. Странно что японцев мало, они как раз на этом повернутые. Может, фанатам молодых писек просто грантов не выделяют?
"Я вас ебу, чего же боле"? Или стишата как у Нацуки в DDLC, про птиц которые умеют летать. Не, хуйня.
Лучше запилить генератор HD видосов. Мне нравятся японские preteen, то есть лоли 9-12 лвл. Русские лоли конечно тоже охуенны, но японские топчик. Обожаю фотки от японских студий и фильмы жанра junior idol. Засмотрел любимых лолек до дыр.
Плюс кастомизация. Чтоб например в этих видосах постепенно раздевались. Снимали купальник, детские трусики и юбочки, позировали в стиле lewd! Горячие малышки
>Мне нравятся японские preteen, то есть лоли 9-12 лвл.
Надеюсь в тюрячке твои вкусы оценят, поехавший
> в чем единственный реальный апликейшн мл/диплернинг теха
Дохуя апликейшенов. В коммерции, в науке.
А извращенцы не шарят в технологиях, их довольствие это побочных эффект
Репортнул модеру педофила, пусть ипшник передаст куда следует
Дети пытались спасти робота-доставщика, свлавишегося в ямы Мурино
Ну и где ваши прорывы в ИИ?
Я знаю чем этот педоробот там с ними занимался.
Пишу свою пошаговую стратегию, встал вопрос ботов. Могу потратить 1-2 месяца на вкат в ML(к этому времени должен быть хотя бы прототип, который что-то умеет), если это занимает гораздо больше времени, то я лучше попробую стандартными методами его реализовать. Просто я начал смотреть ваш CS229 и понял, что тут это может растянутся пиздец насколько и нихуя непонятно на каком реально шаге это начнет меня приближать к моей цели. Все примеры, которые я смотрел про ai и ML обычно простые(ну мне так показалось), типо давайте научим бота рулить или змейку ходить, а у меня игровое поле 50x50, есть разные типы клеток, юниты с разными статами, запланированы способности.
Че вы лезете на двач со своими трансформерами мрази
Хабропидор, заебал говно с своей хабропараши тащить
Там кто-то с pol форчка зделол бота, как же обойтись без русскоязычного аналога?
Затралел лалку, азаза
ну его нафиг мне лень
Потестировал хваленый генератор картинок "glide". Для фетиша - поцелуи лолек в леотардах, с прическами "ponytale".
Это какие-то инопланетяне, давайте нормальных лоли-гимнасток - или пройдите на хуй.
Много-много подливы?
>>365215
>>365399
>>378079
Ооо, видно Люди Культуры в треде сидят. Снимаю шляпу.
Но я предлагаю вариант лучше - взять sankakucomplex, отфильтровать по тегу loli, отсортировать по качеству. Вот тебе уже прекрасный датасет. К датасету уже можно прибавить теги, чтобы на text-to-image можно было по тегам лолей генерировать.
Только вот для этого технические ресурсы нужны. А я так понял тут анончики тупо по теории срачи ведут и майнинг-ферм при себе не имеют.
> А я так понял тут анончики тупо по теории срачи ведут и майнинг-ферм при себе не имеют.
кластер из в100 зелени стоил раньше пятнашку за две недели, и на нем я делал за 20 минут то, на что в бесплатном гугл коллабе уходило 4 часа
надо быть реально пиздорылым додиком чтобы устраивать срачи за блакбокс вместо того чтобы просто работать
но щито поделать, тред полон ебливых додиков которые могут только пиздеть а не делать...
>и на нем я делал за 20 минут то, на что в бесплатном гугл коллабе уходило 4 часа
Чел, ставишь обучаться и уходишь спать, нахуя платить-то...
потому что мне нужно 32 гига вирамы - я истинный генуэ датасаентист, я сотворяю будущее - ты понимаешь это или нет?
а твой обоссанный коллаб порвет сессию через сутки или 12 часов я не помню уже, плюс потом зафризит тебя на время, если дохуя активно юзать будешь
ну и ебатория с загрузкой выгрузкой датасета через гудиск - я на хую вертел эту парашу ублюдскую
я подтыкался даже через ссш, но это еще более неудобная хуета, с анальными приколюхами от гхухла
манянтры про ВО, курсы, матёшку, расчеты хуеты - засунь обратно в свой манямир..
Регулятор в США занялся инженерным анализом работы автопилота Tesla — система отключается за секунды до аварии
Вот это прорыв
>Может спрогнозировать аварию значит!
У ИИ инстинкт самосохранения срабатывает, это ли не прорыв?
Датамакакич, ты-то каким образом к учёным относишься?
У меня криндж
У него китайская комната случилась. Бывает.
Там ещё и пенроузошиз объявился.
Туда ли вы зашли, педофилы?
Улучшить архитектуру генератора, поднять параметры модели на порядок, разрешение 1024x1024 плюс апскейл - и можно фапать.
Туда, туда.
Это официальный педообучения тред (PL, машинный педолёрнинг), недаром соевые в OpenAI и гугле так засуетились и всё анально огородили. Говорят что у них самих в датасете присутствовало натуральное цп.
я не я, мне анон готовый запрос подсунул, а дальше я не справился с любопытством
еще и ночью это говно муриканцы задудосили, только подстегнув мой интерес
а так то все дети до 20 лет .- это просто говорящие неосознанные животные. ну я люблю животных, но дома нет даже кота, потому что он тупой сука как пиздец, и его охуенная шерстка не может перевесить факт его бескрайней тупости (ну а еще мне лень копать земельку зимой, сука ебаным ломом)
поэтому весь этот дрочь не достоен уважения, и много говорит о местной фауне ...
хотя тян так и так животное, а точнее мобильный инкубатор малой автономности, поэтому я за биологически обоснованный подход - пубертат кончается в 13, а дальше как во всех белых странах - делай что хочешь ;>
потому что после 18 это ни на что негодные изношенные шмароебины, часто уже с прицепом.. (и это в дс лол, не каком то замкадье!)
сельдь спок, они сами прибегут и лягут как надо.
кругом одни пиздорылые дауны, выбора у изношенных пассивок не то чтобы очень много..
>сами прибегут и лягут как надо
Ты в тюрячке то же будушь подмахивать и глотать сперму благородных уркаганов как надо
> Своих дочерей то же будете дедам подкладывать?
А с чего это дедам? Педосексуалами становятся в 16-18 лет. Вот им и можно дочерей отдавать.
Исламские ученые разрешают детские браки. Согласно исламу , как известно из достоверных хадисов (Бухари, Муслима, Насаи, Ибн Маджы ,Табари ) ,пророк Мохаммед , когда ему было 53 года женился на 6-летней Айше , в дом к нему она вошла когда ей было 9 лет (некоторые другие хадисы указывают и другой возраст).Согласно шариату брак допустим с согласия отца для девочки любого возраста , секс с 9 -12 лет (наступления месячных ,полового созревания).
Сахих Бухари:
Глава 1142: Заключение брачного договора пророка, да благословит его Аллах и приветствует, с 'Аишей, её приезд в Медину и его женитьба на ней.
1515 (3894). Сообщается, что 'Аиша, да будет доволен ею Аллах, сказала:
«Мой брачный договор с пророком, да благословит его Аллах и приветствует, был заключён, когда мне исполнилось шесть лет. Потом мы приехали в Медину и остановились (в квартале) бану аль-харис бин хазрадж. После этого я заболела, и у меня выпали волосы, а потом они снова отросли. (Однажды, когда) я качалась на качелях вместе с моими подругами, моя мать Умм Руман пришла ко мне и громко позвала меня, а я подошла к ней, не зная, чего она хотела. Она взяла меня за руку и привела к дверям дома. Я тяжело дышала, а когда моё дыхание стало успокаиваться, она взяла немного воды и протёрла мне лицо и голову, после чего ввела меня в дом. В этом доме находились женщины из числа ансаров, которые стали говорить: "(Желаем тебе) блага, благословения (Аллаха) и удачи!" И (моя мать) передала меня (этим женщинам), которые приготовили меня (к свадьбе), а утром пришёл посланник Аллаха, да благословит его Аллах и приветствует, и (моя мать) передала меня ему, а было мне тогда девять лет».
Каждый дрочит как он хочет. Некоторым вообще мужики нравятся, и что же.
У тебя ничего кроме истерики нет? У тебя посты высеры нейронки напоминают, ей богу.
А ты шаришь? Я не понимаю ничего ни в нейронках ни в стихоплетении
> Я специально ездил на Кубу, там это легально за валюту
Так там же любая проституция нелегальна, как я знаю. Она там есть, но тем не менее, нелегальна.
Тогда лучше в Тайланд. Там хоть и азиатки, на не сочные латиночки, но там проще с этим всем.
В чём минусы быть датасаентистом, не выговаривающим букву "Р"? Никто не понимает, про технологию или про колготки ты говоришь.
Можно и без брака ночью, когда Аллах уже спит.
Нашел гуглом эти фотки, они левые.
Тащемта есть куда более лучший вариант для промпта (текстовой подсказки), с которым почти не всратно. Залил его сюда, т.к. эмодзи не отправляются с текстом
https://pastebin.com/wTrKDQdp
Скопируй в dall-e целиком весь длинный текст вместе с эмодзи, не поленись. не пожалеешь. Это практически готовые произведения искусства, из 9-ти изображений будет как минимум один эпичный нюдс. Только сюда в тред не пости.
какой же ты нейро-пиздорылый даун-каложор, пиздец просто ....
мод не удоляй - это искусство! ахахах
Это разновидность нормы, кури матчасть.
В России в 19 веке выдавали замуж в 14 лет, у муслей в некоторых странах выходят замуж и в 9.
Когда вставляешь в узкую тугую щелку, то как-то похуй на мнение моралеблядей. У исследователя данных во всем строгий порядок: GPU нода на амазоне (aws), дата в Kaggle, диск на драйве, ребенок в кроватке (в 10 часов, т.к. утром ей в школу).
Походу у тебя много опыта по этой теме, пробовал на себе и активно подставлял очко.
Глядя на постеров итт, даже эсошиз кажется довольно адекватным человеком.
Вильям-Адольф Бугро - именитый старинный живописец, писавший в том числе лолей. Я даже видел у него одну работу, где был буквально голый ребёнок, девочка лет 12-ти. Он теперь тоже девиант?
Вот для примера, образцы сгенерированных ассетов с частями тел (не с портретами целиком, потому что слишком низкое разрешение и низкая точность):
1, 2 - лица лолей
3, 4 - детские купальники
5, 6 - чулки
Обратите внимание, насколько хороши отдельные детали у лиц, даже с такой слабой технологией как старый DALL-E.
Создавать всё это вместе в целостных изображениях, в разных стилях, со сложными позами персонажей и разнообразными фонами - это задача для моделей с более сложной архитектурой, для таких как Imagen. https://github.com/lucidrains/imagen-pytorch
Ну, если бы у меня был инвайт на dall-e 2, то было бы еще круче. А так что есть, то есть. Да и все равно соя ихняя ограничила генерацию детей, как и эротики, и любого контента, нарушающего соевый мирок.
>Проорал
Чего орешь, тебе там опять дымоход что ли прочищают? Крепко ебут, должно быть.
>с более сложной архитектурой, для таких как Imagen.
Но у него простая архитектура. По сравнению с Dalle 2. По сути он делает пикчу в разрешении 64x64, потом апскейл дифьюжном, потом еще раз апскейл отдельной моделью.
Так значит, ты педофил? Или тебя просто от души выебли в тугое юное срачло, а ты и не был против? Я запутался.
Ну например Gwern стал наоборот известным лицом машоба, хотя он и то, и другое.
Это не простой дифьюжн, а юнет (unet), который тренировали специально под определенное разрешение. Пынямать надо.
Первый и главный шаг для тебя это признать свою девиацию, тогда еще будет шанс стать нормальным человеком.
Не ускользай от темы. Тебе взрослые дяди хорошо отдолбили пукан, или как-то слабо? Давай рассказывай, обиженный на лолифагов :3
>Тебе взрослые дяди хорошо отдолбили пукан, или как-то слабо?
По своему детству судишь? Что стало причиной твоей девиации?
> Это педофилов с детства ебут.
Охуенные стереотипы. Хотя... Похуй, ты истеричка, тебе нечего доказывать.
Она охотилась на молодых парней, гулявших по лесу, привлекая их своим обнажённым телом, заманивая их, забирала жизненную энергию посредством соития.
Имя ей Кали.
Это был обычный денёк и мало чем отличался от других: солнце светило, деревья шумели, звери пели, и птицы пели.
Кали нежилась на солнце на камне, с которого она могла только поглаживать себя руками. А когда солнце стало клониться к закату, демоница потянулась и встала.
Неожиданно она начала вертеть головой и принюхиваться. Её тонкий нюх мог распознать множество запахов, но самым любимым её запахом был конечно же запах мужчины.
Она пошла по тропинке вниз, принюхиваясь и прислушиваясь, чувствуя почти неодолимое желание ощутить мужчину на своём теле. Следовало спешить: ночь скоро. За долгие века своей жизни она отлично усвоила простое для человека знание - человек не ходит по лесу ночью. Не в их привычке.
Она несколько раз обернулась, прислушиваясь к шороху опавших листьев и легкому шороху в ветвях, и уверенно пошла вперёд.
Через некоторое время она остановилась. Впереди раздавался низкий мужской голос.
— Вот сегодня напьюсь эля!
Это шел пацан лет шестнадцати-семнадцати, наверняка первый сын какого-нибудь крестьянина или ремесленника. Брюнет. Не тощий, но и не прожилистый. В простой белой рубахе, бродит совсем один.
Кали решила действовать.
Она подождала, пока он отойдёт подальше, и пошла за ним. Кажется, не учуял… Впрочем, она могла ошибиться. Следовало соблюдать тишину и осторожность. Вскоре она вышла на поляну, где днём пилили дрова. Пацан, насвистывая, брёл по дороге к ней.
Закат окрашивал поляну, на которой пили несколько парней. Тут и там валялись доски, обрезки досок и другая грубая необработанная древесина.
Несмотря на свою в крайней степени распущенность, уединяться Кали любила только с одним мужчиной. Странно, но факт.
— Мешаются — цокнула про себя демоница.
Она начала придумывать план как выманить незадачливого паренька из круга этих пьяниц.
Ей нужно было отвлечь его внимание.
Она подкралась к компании, прячась за деревьями. Она долго выжидала, пока парень отойдет от компании. И тот момент всё же настал.
Парень отошёл отлить в кусты. Со стороны она внимательно наблюдала за его причиндалом, как бы оценивая.
У Кали от нетерпения начали течь слюнки. И не только они. Её миниатюрное тело чуть дрогнуло от предвкушения.
Она спокойно подошла к юноше, так будто он её старый знакомый.
Он её заметил и естественно - испугался, и спрятал член подальше в шаровары. Как тут не испугаешься? Как не посмотри - ситуация жуткая. Будь Кали просто человек, он может быстро собрался бы. Но её алые глаза нечеловечески горели в тени деревьев.
Кали подошла ближе и невинно улыбнулась. Парень просто остолбенел.
Она поняла что получилось.
Кали не носила одежды, как люди, её тело десятилетней девочки предстало перед парнем во всей её красе.
Положив левую ладонь на плоскую как равнины грудь, а правую протянув к парню, она спросила:
— Как тебя зовут?
— Шива, - чуть хрипя ответил юноша. — А тебя?
— Кали, - чуть насмешливо представилась девочка.
Она взяла его крепкую, покрытую мозолями ладонь, и прислонила её к своей щеке. И ласково улыбнулась.
Её глаза заволокла дымка.
На секунду она стала настоящим демоном.
Шива не знал что делать и стоял, как дурацкий пень.
Похоже, ему казалось это всё пьяным бредом.
А Кали сжала его ладонь в своих руках, и повела его к ближайшей ветке.
Всё же Шива пришёл в себя:
— Кто ты?
— Я Кали, - повторила она, словно так это всё время и объясняла.
Тем не менее, Шива последовал за ней.
Он совсем забыл про ту компанию, и даже не оборачивался в сторону поляны.
— И куда мы идём?
— Покажу, - сказала Кали, делая маленький шажок назад.
Кали всю жизнь прожила в лесу, и ей не важно где совокупляться. Главное - подальше от тех парней.
Она прижалась Шиве. Она была сильно ниже юноши, её макушка была на уровне его живота. Она подняла взгляд и посмотрела в его глаза - не отрываясь, будто хотела заглянуть в самую душу. А потом опять опустила взгляд вниз.
Её ладонь спускалась по его прессу вниз, а потом Кали, продолжая улыбаться, нащупала его причинное место. И прижала его член к своим губам, сквозь одежду нащупывая твердый стержень, готовый войти внутрь. Шива почувствовал нежное дыхание. Она была такой противоречиво милой и юной в глазах парня.
А потом с её губ сорвался тихий стон. И Шива замер, не в силах ни двинуться, ни даже сделать вздох. Он понял, что всё - его молодость и красота, будущее его сердца, вся жизнь - вот в этом моменте, в этом прикосновении губ и языка. Он хотел этого, он хотел этого с детства. И не мог больше ждать, не мог сопротивляться, потому что это было выше его сил. И его рука сама взлетела вверх, обхватила голову девочки, и он прижал её к себе.
А она уже снова и снова вбирала в рот его мужское достоинство, причмокивая и тихонько постанывая. Её высокий детский голос становился всё громче, а слюна пропитывала его штаны. Шива покрылся холодным потом. Он чувствовал, что больше не может сдерживаться.
И когда он уже готов был что-то сказать, его напряженный член выскользнул изо рта девочки.
И... ничего не произошло. Она ехидно смотрела на него, а член Шивы стоял, как железный.
— Еще рано - прошептала Кали, смотря прямо на него.
Она легла на траву выпятив таз, чтобы Шиве было удобно взять её сзади. Шива встал и зашел ей за спину. Сначала он просто поцеловал её в спину. А потом со всей силы вогнал член в её лоно. Кали протяжно застонала. Шива почувствовал, как она сжала его член изнутри. Она сжимала его всё сильнее и сильнее. Шива чувствовал, что не выдержит больше. Он застонал и стал двигаться в заданном ей ритме.
Всё стало так, как и должно было быть. Скоро он кончил.
Он упал, совершенно обессиленный. Всё вокруг стало кружиться. Вокруг были какие-то деревья, кусты, довольное лицо Кали, что облизывала его шею - а потом он провалился во тьму.
Сколько он с ней пробыл тогда... Полчаса, наверное, может больше.
Когда его нашли, он был уже мертв.
Она охотилась на молодых парней, гулявших по лесу, привлекая их своим обнажённым телом, заманивая их, забирала жизненную энергию посредством соития.
Имя ей Кали.
Это был обычный денёк и мало чем отличался от других: солнце светило, деревья шумели, звери пели, и птицы пели.
Кали нежилась на солнце на камне, с которого она могла только поглаживать себя руками. А когда солнце стало клониться к закату, демоница потянулась и встала.
Неожиданно она начала вертеть головой и принюхиваться. Её тонкий нюх мог распознать множество запахов, но самым любимым её запахом был конечно же запах мужчины.
Она пошла по тропинке вниз, принюхиваясь и прислушиваясь, чувствуя почти неодолимое желание ощутить мужчину на своём теле. Следовало спешить: ночь скоро. За долгие века своей жизни она отлично усвоила простое для человека знание - человек не ходит по лесу ночью. Не в их привычке.
Она несколько раз обернулась, прислушиваясь к шороху опавших листьев и легкому шороху в ветвях, и уверенно пошла вперёд.
Через некоторое время она остановилась. Впереди раздавался низкий мужской голос.
— Вот сегодня напьюсь эля!
Это шел пацан лет шестнадцати-семнадцати, наверняка первый сын какого-нибудь крестьянина или ремесленника. Брюнет. Не тощий, но и не прожилистый. В простой белой рубахе, бродит совсем один.
Кали решила действовать.
Она подождала, пока он отойдёт подальше, и пошла за ним. Кажется, не учуял… Впрочем, она могла ошибиться. Следовало соблюдать тишину и осторожность. Вскоре она вышла на поляну, где днём пилили дрова. Пацан, насвистывая, брёл по дороге к ней.
Закат окрашивал поляну, на которой пили несколько парней. Тут и там валялись доски, обрезки досок и другая грубая необработанная древесина.
Несмотря на свою в крайней степени распущенность, уединяться Кали любила только с одним мужчиной. Странно, но факт.
— Мешаются — цокнула про себя демоница.
Она начала придумывать план как выманить незадачливого паренька из круга этих пьяниц.
Ей нужно было отвлечь его внимание.
Она подкралась к компании, прячась за деревьями. Она долго выжидала, пока парень отойдет от компании. И тот момент всё же настал.
Парень отошёл отлить в кусты. Со стороны она внимательно наблюдала за его причиндалом, как бы оценивая.
У Кали от нетерпения начали течь слюнки. И не только они. Её миниатюрное тело чуть дрогнуло от предвкушения.
Она спокойно подошла к юноше, так будто он её старый знакомый.
Он её заметил и естественно - испугался, и спрятал член подальше в шаровары. Как тут не испугаешься? Как не посмотри - ситуация жуткая. Будь Кали просто человек, он может быстро собрался бы. Но её алые глаза нечеловечески горели в тени деревьев.
Кали подошла ближе и невинно улыбнулась. Парень просто остолбенел.
Она поняла что получилось.
Кали не носила одежды, как люди, её тело десятилетней девочки предстало перед парнем во всей её красе.
Положив левую ладонь на плоскую как равнины грудь, а правую протянув к парню, она спросила:
— Как тебя зовут?
— Шива, - чуть хрипя ответил юноша. — А тебя?
— Кали, - чуть насмешливо представилась девочка.
Она взяла его крепкую, покрытую мозолями ладонь, и прислонила её к своей щеке. И ласково улыбнулась.
Её глаза заволокла дымка.
На секунду она стала настоящим демоном.
Шива не знал что делать и стоял, как дурацкий пень.
Похоже, ему казалось это всё пьяным бредом.
А Кали сжала его ладонь в своих руках, и повела его к ближайшей ветке.
Всё же Шива пришёл в себя:
— Кто ты?
— Я Кали, - повторила она, словно так это всё время и объясняла.
Тем не менее, Шива последовал за ней.
Он совсем забыл про ту компанию, и даже не оборачивался в сторону поляны.
— И куда мы идём?
— Покажу, - сказала Кали, делая маленький шажок назад.
Кали всю жизнь прожила в лесу, и ей не важно где совокупляться. Главное - подальше от тех парней.
Она прижалась Шиве. Она была сильно ниже юноши, её макушка была на уровне его живота. Она подняла взгляд и посмотрела в его глаза - не отрываясь, будто хотела заглянуть в самую душу. А потом опять опустила взгляд вниз.
Её ладонь спускалась по его прессу вниз, а потом Кали, продолжая улыбаться, нащупала его причинное место. И прижала его член к своим губам, сквозь одежду нащупывая твердый стержень, готовый войти внутрь. Шива почувствовал нежное дыхание. Она была такой противоречиво милой и юной в глазах парня.
А потом с её губ сорвался тихий стон. И Шива замер, не в силах ни двинуться, ни даже сделать вздох. Он понял, что всё - его молодость и красота, будущее его сердца, вся жизнь - вот в этом моменте, в этом прикосновении губ и языка. Он хотел этого, он хотел этого с детства. И не мог больше ждать, не мог сопротивляться, потому что это было выше его сил. И его рука сама взлетела вверх, обхватила голову девочки, и он прижал её к себе.
А она уже снова и снова вбирала в рот его мужское достоинство, причмокивая и тихонько постанывая. Её высокий детский голос становился всё громче, а слюна пропитывала его штаны. Шива покрылся холодным потом. Он чувствовал, что больше не может сдерживаться.
И когда он уже готов был что-то сказать, его напряженный член выскользнул изо рта девочки.
И... ничего не произошло. Она ехидно смотрела на него, а член Шивы стоял, как железный.
— Еще рано - прошептала Кали, смотря прямо на него.
Она легла на траву выпятив таз, чтобы Шиве было удобно взять её сзади. Шива встал и зашел ей за спину. Сначала он просто поцеловал её в спину. А потом со всей силы вогнал член в её лоно. Кали протяжно застонала. Шива почувствовал, как она сжала его член изнутри. Она сжимала его всё сильнее и сильнее. Шива чувствовал, что не выдержит больше. Он застонал и стал двигаться в заданном ей ритме.
Всё стало так, как и должно было быть. Скоро он кончил.
Он упал, совершенно обессиленный. Всё вокруг стало кружиться. Вокруг были какие-то деревья, кусты, довольное лицо Кали, что облизывала его шею - а потом он провалился во тьму.
Сколько он с ней пробыл тогда... Полчаса, наверное, может больше.
Когда его нашли, он был уже мертв.
Пиздец у тебя истерика, шизло.
Алсо, по части педолитературы нейросети продвинулись крайне далеко.
Следующий шаг, это создание кинофильмов искуственным интеллектом.
Бтв, почему никто не говорит о DALL-E?
Свою коммунистическую GPT натренируем, похуй.
Таблетки
Курсы по МЛ сделой
Ты разве не сосал в детстве дяденькам писюны? Как тогда педофилом стал?
Как успехи, машобщики?
Грят лучше прежних наработок:
https://habr.com/ru/company/sberbank/blog/671210/
По части анимешек: пририсовывает ирл-глаза анимешным девочкам. Крипота.
По части маленьких лапочек в купальниках: no comments. Не встает на эту крипоту.
По части лендскейпов: неплохо рисует поля и горы на бекграунде. Но обосрался на средневековом городе рисуя силуэты людей в очевидно современной (после Нового Времени) одежде.
Неплохой тредик. Но ради картинок можно и на буры сходить.
Алсо, а сколько ИТТ лоликонщиков? Человека три (включая меня)?
Просто из интереса. По ощущениям итт только лоликонщики, за исключением одной истерички.
> девиацию
Истеричка-старухоеб пошел в перефорс.
Просто съеби с треда, и не мусоль мозги ни себе ни людям.
>в купальниках
Зачем? Разве ты не любишь голеньких - немножко костлявеньких, с плоской грудью с нежными сосОчками?
Это всего лишь ордынская вариация dalle на убогой архитектуре. Imagen выглядит гораздо круче.
> Зачем?
Ну, закрытые, открытие, всякие купальники хороши. Это сорт оф фетиш.
> Разве ты не любишь голеньких - немножко костлявеньких, с плоской грудью с нежными сосОчками?
Не костлявых, а худеньких. А вообще да, люблю (очень). Но нейросетка 100% проебется, причем по понятным причинам. А вот фото лолек в купальниках в интернете очень много, соответственно, справедливо предложить, что купальники она сгенерирует лучше.
У тебя пятак торчит, спрячь.
>Не костлявых, а худеньких.
Я имею в виду, у голых лолек обычно ощущается рельеф ребер, коленок, таза и всякое такое. Только если они пухленькие, тогда не видно, ну и еще от стиля зависит.
> По ощущениям итт только лоликонщики, за исключением одной истерички.
Ебанутое больное животное, ты никакого отношения к треду не имеешь. Шитпостишь своей педофилией, ни одного поста по теме, тебе дали модель поиграться - ты играешься. Тред чела, который брал нотебуки из пейперов и запускал на колабе, был более релейтид чем ты. Твоё счастье, что моче поебать на шитпостинг и спам шизой итт.
Сам ты животное.
Двачую адеквата
> Младший брат 9-летней студентки Алисы Тепляковой собирается поступать в МГУ
> Отец вундеркиндов Евгений заявил в семейном блоге, что теперь перед Хеймдаллем открыта дорога в главный вуз страны.
> "Ну что, Хемика с аттестатом?))) Математика профиль, разумеется. Баллы для восьми лет шикарные, можно поступать на мехмат или ВМК. Второй наш малыш в восемь лет успешно получает аттестат. С учетом того, что Хемик младше Алисы, я ему аплодирую стоя", – написал он в блоге.
Ваши оправдание почему вы не можете осилить маняматику для машоба?
Когда родители тебя назвали Хемулем, твоего брата Снусмумриком, а сестру Юлей...
Слово из словаря глупцов
1) Выбираешь из https://vuzoteka.ru/вузы/Философия-47-03-01
2) Защищаешь монографию по эпистемологии
3) Публикуешь свой концепт и архитектуру сильного ИИ
4) Ждёшь 3 месяца пока китайцы его реализуют и обучат
5) Гоняешь тесты, выясняешь где обосрался
6) Возвращаешься к пункту 2)
https://i.ibb.co/5sd06gV/ooooooooo.png
Попробуйте найти подобный (SOTA) контент с нежными и красивыми, да еще сделанный на профессиональном уровне? Ну хотя бы как рисунки и рендеры на ArtStation/CGSociety.
Воо-от. Вся надежда на машоб: опенсорсные SOTA DALL-E 2/Imagen смогут делать еще лучше людей-профессионалов. ЭС-старушатник кукарекает, что видите ли экспертных систем вполне достаточно для актуальных задач, он заблевал нам весь тред. Наверное, ебаноида в детстве машобщики насиловали в срачло.
Ловите педофила, у него о обострение!
Нет, апскейл не отлично работает. В фото есть информация/энтропия, до которой нейросетки будет сложно додуматься.
Я размышлял об этом как-то. Для этого надо как минимум:
1) сеть внимания которая будет принимать решения какие детали стоит запоминать, а какие можно дорисовать апскейлом общего назначения + выделятор фич
2) nerfоподобная сеть для трансформации
3) апскейл/ретушь с длительной межкадровой памятью + бленд
Пока что всё это в зачаточном состоянии, но уверен что это реализуют в ближайшие несколько лет, потому что это будет реально серебренной пулей для реставрации старых лент.
Я бы это применил для восстановление порева конца нулевых, начала десятых. Фотосеты там достаточно качественные, при этом некоторые были сделаны со вспышкой, и там присутствуют многие детали, которые на видео превратились в мыло.
ХРЮЮЮЮЮЮЮЮЮЮ
кресты для душных ублюдков, никто из адекватных людей это говнище не трогает
если нужно зрение на заводе для контроля линии - проще и дешевле купить нормально железо или навернуть эмбед-пайтон
скорость никогда не ботлнекнется об питоняшеские дела
даун велосипедник с белой темой - угадай почему вам замкадом больше двух мротов никто не платит?
>Как часто вы работаете с C++?
А на чем еще работать? Питухон для педофилов, на нем только либы дергать и с параметрами играть
Классический любитель питонов внутри своей задницы
Твои либы — говно, твой код — говно, да и твоя зарплата — говно, ведь тебя можно заменить на такой же кусок кодера который будет импортить готовые решения в проект
А я и не вкатутось. Разве только в cv.
Ну ладно.
Только не зазнавайся особо, а то падать больно будет.
> Вы реально cv инженеры?
у меня опыт разработки уникального проекта в москва-сити, да, где я руководил процессом полностью и разрабатывал решения аналоговнет
и чтобы не пездело это никчемное ничтожество
>>386639
композиция и архитектура - вот что имеет значение, ну и естественно скорость разработки, а уже потом любой модуль можно допилить под свои нужды, но в 99% случае просто похуй и так охуенно все работает потому что все уже давно изобретено
основная задача собрать все в кучу и организовать датафлоу
и вот что то у такие душные пиздорылые дауны нихуя с этим не справляются)))) потому ублюдки без фантазии, без амбиций, без полета мысли
дрочилы гадкие, убогие.
> пара вопросов есть
пиши сюда
>пиши сюда
>Пиши здесь
- какая общая ситуация на рынке cv? Все плохо? Много контор позакрывалось/переехало?
- какие специфические навыки нужны в cv? обычному DS/ml насколько тяжко заняться этой стезёй?
- Как ваш стандартный пайплайн устроен? Вы получаете готовые данные или самим надо их собирать, чистить, аугментировать и так далее?
- Какие модели используются в cv? Готовые? Самописные?
- В cv есть что-то наподобие бертов и трансформеров?
- С++ преимущественно используется для ускорения кода или для работы с железом?
- чем именно в cv вы занимаетесь? Сегментацией? Классификацией? Чем-то ещё?
Не проецируй. Либы дёргаешь ты, а полёта мысли нет у тех, кто решение под конкретную задачу пишет
> Все плохо?
this, мой проект был заморожен уже после пандемии все начало скатываться в очко, притом это была компания лидер в своей, довольно денежной, области
слышал яндекс переехал, но хуле толку от рнд на выезде если селф драйв должен катать по рашке, это все очень неудобно
но сейчас есть реальные движения по борьбе с прозападным движением предателей, уже сейчас отменили всю еблю бизнеса проверками, уже есть льготы для айти помимо сколково - все это очень круто и как только цб распердолится на дешовые кредиты - мы зажгем ;)
тот же селф драйв теслы это простые камеры и машоб ученый на уече, элементарная хуета. главный ботлнек всего машоба это датасет, который слишком дорого или сложно собрать в хорошем качестве, а потому итерации слишком дорого стоят, ну и додики вместо генерации выдрачивают баисы, надеясь выжать оставшиеся гроши)))
> какие специфические навыки нужны в cv?
УМЕТЬ ГУГЛИТЬ СУКА и быть любящим тинкерить и экспериментировать со всяким дерьмом, превозмогая бесконечную боль и неизвестность
представь свои первые шаги во время изучения питоняшки, как было все в новинку, все непонятно, бесяче и тяжко - так вот в рнд так будет каждую неделю.
> стандартный пайплайн
это иметь по человеку на каждый этап, ирл в рф ты занимаешься всем и составляешь архитектуру, и готовишь датасет (ETL), разметку лейблов я отдавал на аутсорс белорусам (там дешевле и качественной убогой яндекс помойки с отбросами) и дальше проводишь испытания и смотришь чтобы имеющийся датасет качесвенно пропехивал все слои, и дальше добавляешь убавляешь, кароче изи, эта хуита простая как палка, истинный интеллект будет возможен только на аналоговых вычислительных модулях, или невъебенно крутых суперкомпьютерах которые вывозят триллоны нейронов, а ты занимаешься базовой хуетой для бизнеса, которую легко осознать логически спустя пару дней аналитической работы
> Готовые?
ты пиздишь код со стака или из доки - всегда! разбираешь на части, подгоняешь под себя, по ходу изучаешь
ты не computer scientist в институте или рнд отделе фейсбука или хуавея/гнусмаса, запомни это, ты в нищей рашке среди быдла, которое просто зарабатывает бабло, а не пытается сделать мечту педофила йобу (хотя рнд отделы того же хуя и гнусмаса у нас есть, но я сомневаюсь что туда кого то набирают, да и требования там охуевшие, а они при этом просто яркость фоточек подкручивают подсовывая им датасет после батча в фотошепе)))))
> бертов и трансформеров
погугли епта. вообще у тебя что то слишком дохуя вопросов для ученого, я бы тебя максимум на подсос говно убирать взял и то врятли. ученый - это самостоятельная единица, которой не нужно подтирать срачло и гайдить (хотя один зеленый няш устроился в ростех ему там как раз подтирают жеппу :э)
> С++ преимущественно используется
безмозглыми опущенными во всех смыслах даунами, которым допизды на потраченное время, ввиду его копеешной стоимости, это буквально отбросы, если ему похуй на свое время, то значит и похуй и на мое, а значит он идет нахуй
> чем именно в cv вы занимаетесь?
никто не скажет, это нда. но очевидно что это базовый набор что есть в тф/торче и плюс простейшие алгосы которые опять же пиздишь со стака или из доки
> Все плохо?
this, мой проект был заморожен уже после пандемии все начало скатываться в очко, притом это была компания лидер в своей, довольно денежной, области
слышал яндекс переехал, но хуле толку от рнд на выезде если селф драйв должен катать по рашке, это все очень неудобно
но сейчас есть реальные движения по борьбе с прозападным движением предателей, уже сейчас отменили всю еблю бизнеса проверками, уже есть льготы для айти помимо сколково - все это очень круто и как только цб распердолится на дешовые кредиты - мы зажгем ;)
тот же селф драйв теслы это простые камеры и машоб ученый на уече, элементарная хуета. главный ботлнек всего машоба это датасет, который слишком дорого или сложно собрать в хорошем качестве, а потому итерации слишком дорого стоят, ну и додики вместо генерации выдрачивают баисы, надеясь выжать оставшиеся гроши)))
> какие специфические навыки нужны в cv?
УМЕТЬ ГУГЛИТЬ СУКА и быть любящим тинкерить и экспериментировать со всяким дерьмом, превозмогая бесконечную боль и неизвестность
представь свои первые шаги во время изучения питоняшки, как было все в новинку, все непонятно, бесяче и тяжко - так вот в рнд так будет каждую неделю.
> стандартный пайплайн
это иметь по человеку на каждый этап, ирл в рф ты занимаешься всем и составляешь архитектуру, и готовишь датасет (ETL), разметку лейблов я отдавал на аутсорс белорусам (там дешевле и качественной убогой яндекс помойки с отбросами) и дальше проводишь испытания и смотришь чтобы имеющийся датасет качесвенно пропехивал все слои, и дальше добавляешь убавляешь, кароче изи, эта хуита простая как палка, истинный интеллект будет возможен только на аналоговых вычислительных модулях, или невъебенно крутых суперкомпьютерах которые вывозят триллоны нейронов, а ты занимаешься базовой хуетой для бизнеса, которую легко осознать логически спустя пару дней аналитической работы
> Готовые?
ты пиздишь код со стака или из доки - всегда! разбираешь на части, подгоняешь под себя, по ходу изучаешь
ты не computer scientist в институте или рнд отделе фейсбука или хуавея/гнусмаса, запомни это, ты в нищей рашке среди быдла, которое просто зарабатывает бабло, а не пытается сделать мечту педофила йобу (хотя рнд отделы того же хуя и гнусмаса у нас есть, но я сомневаюсь что туда кого то набирают, да и требования там охуевшие, а они при этом просто яркость фоточек подкручивают подсовывая им датасет после батча в фотошепе)))))
> бертов и трансформеров
погугли епта. вообще у тебя что то слишком дохуя вопросов для ученого, я бы тебя максимум на подсос говно убирать взял и то врятли. ученый - это самостоятельная единица, которой не нужно подтирать срачло и гайдить (хотя один зеленый няш устроился в ростех ему там как раз подтирают жеппу :э)
> С++ преимущественно используется
безмозглыми опущенными во всех смыслах даунами, которым допизды на потраченное время, ввиду его копеешной стоимости, это буквально отбросы, если ему похуй на свое время, то значит и похуй и на мое, а значит он идет нахуй
> чем именно в cv вы занимаетесь?
никто не скажет, это нда. но очевидно что это базовый набор что есть в тф/торче и плюс простейшие алгосы которые опять же пиздишь со стака или из доки
>мой проект был заморожен уже после пандемии все начало скатываться в очко, притом это была компания лидер в своей, довольно денежной, области
Ебать, шнобель, так ты оказывается 2 года как не разраб, а до сих пор выебуешься!
Эти вопли неосилятора. Не справился с обычными крестами, в итоге сидишь без работы. Соболезную
у меня товарищ крестоеб, так вот я ему рассказал про свой скежуал и он загорелся, начал над тем же работать
это был алгоритм скелетонизации, так вот он не смог превзойти мой результат, несмотря на его йоба ВО и опыт разработки низушного графония, а у меня брошенный артовый инст и последовательный подход с пониманием задачи
только код что он кидал естественно был похож на ублюдский высер, и времени он на это въебал порядочно
так что ты просто бесполезный кусок говна. ты никогда не будешь комитать в ядро линупса, ты никогда не будешь писать прорывной игровой движок типа уепа, твой максимум это СТАВКИ НА СПОРТ, где тебя наебут и заплатят копейки)
больше твоя убеищная солянка из визуального шума нахуй нигде не всралась
https://github.com/yandex/YaLM-100B
А вы педофилов каких-то обсуждаете. Что оффтоп нынче в машоб-треде: педофилия или GPT/AI/нейроночки и машоб?
Ты можешь сколько угодно бросаться громкими фразочками, пытаясь скрыть за ними осознание своей ущербности на рынке программистов, ведь единственное, на что ты способен — по очереди добавлять библиотеки и усиленно копировать код из stackoverflow
> набрасывает на вентилятор тему gpt-трансморферов, которые породили педоистерику вокруг ai dungeon
> А вы педофилов каких-то обсуждаете
>а хуле толку если никто итт её не сможет запустить
Час 4хА100 стоит плюс-минус 200 рублей. Кто захочет погенерить рассказов поэкспериментировать - тот сможет.
А так-то хотелось чтобы веса поменьше выложили, конечно. Ну и развития RETRO-подобных сетей.
> Ну и развития RETRO-подобных сетей.
> Разработчики DeepMind утверждают, что база данных облегчает анализ того, чему научилась их модель, для последующей борьбы с предвзятостью.
Ясно-понятно, короче.
> Час
не знаю как у городских, а у меня на селе аплод 300 мегабит, так вот 200 гигов заливать я буду почти 2 часа
вангую если ты замкадыш или пидербуржец то можно умножать на 5
а потом тебя мамка погонит спать
ведь додики-анимешники и педофилы до сих пор живут с мамами
вот и считай что нагеренирить всратых текстов тебе встрянет в пару тыров, а мамкина пенсия не бесконечна((
В RETRO архитектуре таким цензором становится не корпорация, скрывающая лгбткукусжв-повесточку в черный ящик весов модели, а клиент, вольный напихать во внешнюю базу чего хочет: хоть википедию, хоть архив харкача, хоть коллекцию яойных фанфиков по Поттеру.
А то мне кажется я ввязываюсь в некоторое дерьмо, с одной стороны ничего не стоит перевести гуиды по склерну да пандасу, с другой понятно что это кал и мастерское владение стеком никак не помогает найти работу.
Шиз, нахуй иди.
эти петухи ее выложили, потому что для ее запуска требуется 200gb GPU
ее хуй кто сможет себе позволить
>машоб ученый на уече
Вы машобом внутри UE4 занимаетесь? Почему там? Как это вообще? Первый раз про такое слышу
Мб одинокому ананасу нет даже смысла пытаться?
Пробовал гонять одну нейронку на сете из 2к изображений 512х512, одна эпоха занимала 8 минут. 1000 эпох займёт 133 часа. При этом хз, скок нейронке нужно будет эпох, мб гораздо больше, чем 1к.
> 1000 эпох займёт 133 часа.
Ну это норм, типичные сетки тренятся сутками.
Другое дело что если ты энтузиаст-вкатывальщик с бананом вместо ГПУ, не уверен что у тебя там неделю учится что-то толковое, то тебе лучше экспериментировать с готовыми эмбеддингами и файнтюном. Там из говна и палок можно получить результат за час-другой и успевать делать кучу итераций.
Во-первых да, он тебе написал, ты получишь гораздо лучшие результаты тренируя только верхние свои 10-20 слоев от какого-нибудь резнета/мобаилнета, все таки у гугла и спецов и мозгов, и ресурсов поболее чем у тебя.
Но если ты энтузиаст, то прочитай про каллбеки, конкретно ёрли стоппинг, вполне вероятно, если у тебя там не 300 говнослоев, а стандартная учебная нейроночка, то у тебя она затренируется за 10-20 эпох и дальше будет просто говно месить, настраиваешь что если за 5 эпох нет прогресса и валидация не улучшается - ты останавливаешься. Если хочешь лучше - думаешь как настроить ее, какие слои докинуть, меняешь активации, что-то еще. Потом все это выкидываешь в помойку, берешь резнет, прикрепляешь свои выходные слои и тренируешь их 3 эпохи и получаешь в 2 раза лучший результат чем был на полностью своей херне.
> Почему
ты ебешься в очи?
я писал про теслу
потому что уеч топ
это так же как и все остальное
> Первый раз про такое слышу
потому что тебе похуй на машоб, ты ничем не интересуешься ( наверняка дрочишь кресты алгосы или прочую бесполезную в реальной работе поибень )
>>387797
> скок нейронке нужно будет эпох
а у тебя ВО что лей нету? ебать ты лох, все додики с ВО с первого взгляда могут сказать сколько будет эпох, ведь они же знают юзлес матёшку теор вер хуитан калькулюс там интегралы карандашиком закрашивают в тетрадочки, это не хуй собаки и даже не колбек на оверфит, это пынямать надо!
Я бы походил прежде всего для общения, к тому же я бумер и матан благополучно забыл полностью еще 15 лет назад.
https://github.com/MrGiovanni/ModelsGenesis/blob/master/pytorch/unet3d.py
или такое
https://github.com/milesial/Pytorch-UNet/blob/master/unet/unet_parts.py
Инб4 напиши сам
Школу 21 глянь, там вроде потом специализации есть, если про кодинг
Если про матан - для всех желающих НМУ, но там сложно пиздец
Вроде норм, но там на фотках одни зумеры, стремновато быть единственным бумером.
почему у тебя фиксация на возрасте? тебя молоденькие тяночки отшивали грубо или чево?
Так я же написал, что хочу пойти для общения. А если там будут одни зумеры, то это все равно что вместо фитнеса пойти в дюсш.
> хочу пойти для общения
> будут одни зумеры
> в коддинг шкалу
> за общением
так ты же хуже зуммера, у тебя интеллект на уровне дошкольника
ты блядь хоть на секундочку имадженируй астрономический уровень кринжа, когда все будут сидеть и дрочить уткнувшись в пекарни, а ты будешь доебываться до них с тупорылыми мемасиками или охуительными телегами, про то как бы охуенно было написать свой гарбяж каллектор или подрочить матанчик ради нихуя..
это кринжово вне всякой зависимости от возраста ..
>>388516
> с чего бы
педофилам фиксироваться на возрасте если вся суть в манипулировании ментально недоразвитым покорным доверчивым существом с миниатюрной фигуркой не как у дойной коровы, такую можно найти любого возраста
сильно сомневаюсь что есть в природе педофилы дрочащие на шарообразные малолетние отбросы, всем вон чулочки купальнички подавай, да чтоб ребрышки светились
> если вся суть в манипулировании ментально
Ты всё не правильно понял. Я вот хочу действительно нежно лолю любить, без хуйни.
> да чтоб ребрышки светились
Не, пусть будет просто миниатюрная детская фигура. Анорексия это такая же нездоровая хуйня, как и жир.
Хотя признаюсь, на порнухе дрочу и так, но ИРЛ у меня требования к красоте выше.
Давай остановимся на том, что фигура должна быть элегантным, а лицо должно быть таким прекрасным, что ты свою возлюбленную боготворить будешь.
Педофилы активировались ИТТ, жара что ли повлияла?
Если говорить про 2д, то лоли/не лоли просто тело, не вижу смысла на этом фиксироваться и боготворить или принижать кого либо. У 3д блядей понятное дело все по-другому, но они и нахуй не нужны, похуй на них.
Вот просто блевать охота смотря на убожество с твоего пика, пытается подражать 2д-богиням, но ничего близко и не выходит.
Ты ебаный даун, какие мемасики? Вот я хожу на борьбу, замечательно общаюсь там с хачами, можем обсудить тачки-драчки-всю хуйню, но не можем обсудить что-то айтишное. Вот я и хочу ходить еще на "секцию", где будут те, с кем можно обсудить и айтишное тоже, что тут тебе кажется странным?
А как по мне милашка. Просто по 2д у нейросеток шансов больше сделать что-то качественное, ибо дб в открытом доступе. Давайте не отходить от темы треда, и обсуждать детскую нейроэротику и продвижения в этом направлении.
Кстати, насчет RETRO. Насколько она перспективна для студенческих новутбуках для учебы?
если
> без хуйни
то возьми из детдома
а если с хуйней, то маленькое животное этого все равно не оценит, а без отдачи это просто дрочка в носок
> детская фигура
опухшая тушка с фигурой мальчика, так может ты просто пидар гей?
> фигура должна быть элегантным
> детская фигура
блядь ты реально ебнутый
> лицо должно быть таким прекрасным
прикладывает подкрашенную маленькую поблядушку с очевидной мамашей-шлюхой и отцом-куколдом
> ты свою возлюбленную боготворить будешь
не за красоту, а за хозяйственность и бытовой интеллект, когда вырастешь, может быть поймешь
>>388536
всех анимешников надо принудительно сажать на транки и проводить серьезную терапию
>>388544
> тут тебе кажется странным?
что ты быдло ебаное, путаешь свой НЕгейский клуб где вы друг с другом грубо тискаетесь - с индивидуальной интеллектуальной работой, требующей всю твою концентрацию
Ебанько, я 15 лет погромирую, и борьба - на самом деле гораздо более требующая концентрации деятельность. И все погромисты, которые работают в офисах, прекрасно общаются все время, но я в офис на постоянку не хочу, а хочу именно несколько раз в неделю куда-то на пару часов ходить, так же как на физуху.
>Кстати, насчет RETRO. Насколько она перспективна для студенческих новутбуках для учебы?
1) Судя по количесту параметров для инференса надо где-то в районе 15..30Гб памяти, так что это точно не уровень нищеноутов, это уровень новых десктопных видюх.
2) Трененых моделей никто не выкладывал, скрипты по обучению лежат тут: https://github.com/lucidrains/RETRO-pytorch, можно попробовать покрутить размеры чтобы впихнулось в видюху, но сколько времени надо на обучение не возьмусь даже предугадывать.
3) После анонса по ретро нет никаких новостей, так что возможно на деле не всё так радужно.
> я 15 лет погромирую
и? ты к чему вообще это приплел даун? что ты половину своей никчемной жизни работаешь, но тебе не хватает мозгов организовать круг общения кроме двача? ебать ты уебок никчемный))))
еще и агрессия эта от беспомощности... неудивительно что такое чмо жалкое никому нахуй не всралось, сидеть слушать его охуительные истории про курогрудь и как он там магу за яйцо укусил)
> борьба - на самом деле гораздо более требующая концентрации деятельность
вот, смотрите питоняшки, вот это и есть каноничный бесконечный ждун, вместо развития и усердной работы - он тискает кавказцев (вовсе не как что то плохое, просто факт)
1. Хули ты такой злой. Мара Грин - богиня.
2. Не разводи оффтоп.
3. Ты не прав буквально по всем пунктам.
Нет, мань, я это приплел потому что ты начал кукарекать что погромисты ебать серьезные сидят и не общаются.
А кругу общения свойственно меняться - когда-то и я в офисе работал естесно, а когда-то он мне и не нужен был.
И агришься только ты как последний дегенерат, тогда как я изначально задал совершенно нормальный вопрос - бывают ли по машобу такие же группы как по физухе или по другим хобби, чтобы в любом возрасте можно было ходить и в удовольствие заниматься.
Валер спокуха.
> маленькое животное
Вот ты мразь ангелочков так называть.
> а если с хуйней
Любовь это не хуйня.
Лоли это конечно хорошо, но без должного воспитания это все же маленькое животное, животные тож бывают милые, но создаваемый им геморрой на любителя. Мимокрокодилпедофил
> маленькое животное
Ну это уж если совсем маленькая. Думаю постарше (лет 10-13) куда более чувственные. Я сам студент, подросток считай. Но я двачер, мне и так и так ничего не светит, приходится дрочить на прон, где чеды ебут лолей, пиздец просто.
1. Разработка опенсорсного DALL-E 2 в самом разгаре
https://www.reddit.com/r/MediaSynthesis/comments/vitxdk/development_of_open_source_dalle_2_pytorch_wip/
Уже есть демо-колаб с ранними версиями приора и декодера!!!! ребята из лаиона молодцы - стараются, работа кипит во всю
2. Юное дарование из Челябинска - Сеня, уже выкладывало состряпанную на скорую руку модель Imagen. (Это не тот код который пилит Пхил Ванг, а другой.)
Также есть сделанный на коленке колаб, + несколько разных колабов для обучения модели. Я как раз делаю педомодель по 60к сету голых лолек с узенькими дырочками, подписи к которым также сделаны моделью машинного зрения.
3. Google изобрели новую архитектуру Parti, которая ничем не превосходит imagen, но она ближе к первому DALL-E и это как бы преимущество (нет). Все разработчики, как водится, китайцы.
4. В Китае запилили SOTA text-to-video.
Ура! Киберпанк уже близко, товарищи
https://www.youtube.com/watch?v=debJ3BcK_2Q
Имаджен использует только юнеты: генерация в 64х64, потом апскейл отдельным юнетом до 256 или 512 пикселей. Потом еще апскейл. Но данные должны быть подписаны (text conditional).
Обе архитектуры работают. Вероятно, их даже можно объединить в что-то среднее и получить еще лучший результат.
Можешь сам вкотиться в корпорацию, например в яндекс или сберAI. Россия практически не отстает от стран-флагманов.
>не про генерацию цопэ, а о реальных полезных и глобальных штуках.
/0
Не, работать на корпы не в моих принципах.
>Россия практически не отстает от стран-флагманов.
Ну это слишком толстый троллинг, прояви уважение.
Вкатывайся в laion или eleuther.ai
В России создали ruDALLE, уже открыли тестирование Кандинского, а на днях выложили крутую языковую модель.
>В России создали ruDALLE, уже открыли тестирование Кандинского, а на днях выложили крутую языковую модель.
Скоро педофилов будут ловить по ИП пачками?
>Вкатывайся в laion или eleuther.ai
Чтобы вкатиться в какую-либо технологию, а я полагаю что это технологии нужно хотя бы базу какую-нибудь заиметь. Сейчас я пытаюсь понять стоит ли оно вообще того.
Всегда запускаю обучение и исполнение моделей локально на своей собственной A100 из-под убунты в виртуалке. Соси, старушатник.
Тренируешь полдня - всё мыльное в шуме и артефактах. Тренируешь дальше - оверфиттинг. Это когда модель в точности воспроизводит образцы из датасета. Понижаешь разрешение, чтобы процесс шел быстрее - тоже оверфиттинг.
> Хули ты такой злой
в интернете кто то не прав, шуе хуле
> Мара Грин - богиня
это же она была на фоне горящего дома?
> Ты не прав буквально по всем пунктам
пук
>>388611
> Как что-то плохое.
я специально для альтернативно одаренных в скобочках об этом написал (даже спойлер уже перестал использовать, потому что местным животным слишком сложнаа)
>>388662
> Вот ты мразь ангелочков так называть
от реальности не спрятаться в манямире как бы тебе этого не хотелось. до 20 лет личинка человека - животное, и только потом, лишь не у всех, просыпается некоторая осознанность и начинают развиваться человеческие качества, до этого это просто говорящая лысая обезьяна типа вот этого скотоублюда
>>388584
> Любовь это не хуйня
это химическая зависимость на пару лет
>>388677
+++
>>388831
> реальных полезных и глобальных штуках
делаются в колабе или на 32 ядерной амуда-рабочей станции под водой за вечерок изили из готовых блоков
>>390015
> 16 летних потасканных шмар
перетолстил няш) изношенные шалавы это 18+
>>390100
увеличивай датасент, либо убирай слои и жри говно. пока топовые китайские эм ай ти инцелы не изобретут аналоговые нейросети или квантовые вычислительные модули - все так и будет на уровне бронзового века..
> Хули ты такой злой
в интернете кто то не прав, шуе хуле
> Мара Грин - богиня
это же она была на фоне горящего дома?
> Ты не прав буквально по всем пунктам
пук
>>388611
> Как что-то плохое.
я специально для альтернативно одаренных в скобочках об этом написал (даже спойлер уже перестал использовать, потому что местным животным слишком сложнаа)
>>388662
> Вот ты мразь ангелочков так называть
от реальности не спрятаться в манямире как бы тебе этого не хотелось. до 20 лет личинка человека - животное, и только потом, лишь не у всех, просыпается некоторая осознанность и начинают развиваться человеческие качества, до этого это просто говорящая лысая обезьяна типа вот этого скотоублюда
>>388584
> Любовь это не хуйня
это химическая зависимость на пару лет
>>388677
+++
>>388831
> реальных полезных и глобальных штуках
делаются в колабе или на 32 ядерной амуда-рабочей станции под водой за вечерок изили из готовых блоков
>>390015
> 16 летних потасканных шмар
перетолстил няш) изношенные шалавы это 18+
>>390100
увеличивай датасент, либо убирай слои и жри говно. пока топовые китайские эм ай ти инцелы не изобретут аналоговые нейросети или квантовые вычислительные модули - все так и будет на уровне бронзового века..
>аналоговые нейросети
Это на транзисторах? Могут ли быть сети на основе химических реакций, типа полимеры какие нибудь...
Мимо не педофил
> типа
как в твоем не очень умном мозге? - да, есть.
и много чего еще, что уеропские моралофаги неодобряют, но на что похуй китайцам.
> Это на транзисторах?
Да, в первую очередь на тупых сумматорах.
> Могут ли быть
На оптическом рассеянии уже делали. Работает мгновенно.
https://nplus1.ru/news/2019/07/09/optical-neural-network
у тебя денег на билет до таиланда нет или чего ебать?
Что это за задача?
>Где на дваче можно поговорить про AGI?
В ньюсаче был тред. Оттуда:
Просто напоминаю, что Пенроуз доказал, что Сильный ИИ на основе машины Тьюринга невозможен.
Для этого нужен квантово-гравитационный компьютер.
Почему?
Это очень долгая история, Пенроуз 600 страниц написал. Но если по-простому, то вот.
Начинается всё с теоремы Гёделя о неполноте, которая говорит, что в любой достаточно сложной непротиворечивой системе аксиом (достаточно, чтобы она включала формальную арифметику) существует недоказуемое (и неопровержимое, конечно) утверждение. Более того, доказательство этой теоремы конструктивно в том смысле, что это утверждение строится в явном виде и является истинным по построению.
Другими словами, для любой достаточно обширной системы аксиом существует утверждение, про которое мы точно знаем, что оно истинно в рамках этой системы, но в рамках этой же системы доказать мы его не можем.
Это суть теоремы Гёделя о неполноте. И сама эта теорема говорит об ограничениях возможностей любой универсальной машины Тьюринга, потому что теорема Тьюринга о неразрешимости проблемы останова является просто переформулировкой теоремы Гёделя о неполноте.
Идеолог концепции Сильного ИИ и Технологической Сингулярности Рэй Курцвейл, в свою очередь, считал, что в этом никаких проблем нет. Якобы, компьютер ограничен теоремой Гёделя, мозг тоже ограничен теоремой Гёделя, никаких проблем нет.
Важно понимать, что на самом деле самой по себе теоремы Гёделя недостаточно, чтобы сделать вывод о способностях мозга, и, далее, о соотношении способностей мозга человека и компьютера.
Здесь необходим ещё один фундаментальный шаг, и именно этот шаг сделал Пенроуз.
Пенроуз доказал, что мозг не является компьютером, когда нашёл способность человеческого мозга, которую никакой классический компьютер (машина Тьюринга) воспроизвести не способен в принципе.
Далее будет доказательство в очень простой (даже обманчиво простой) формулировке.
Сам Пенроуз двигался немного другим и гораздо более сложным, но при этом и гораздо более строгим, путём.
1... Короче, предположим, что некая машина Тьюринга является Сильным ИИ (т.е. обладает всеми интеллектуальными способностями (гениального) мозга).
2... Тогда любой математик-человек с помощью теоремы Гёделя может построить истинное утверждение для данной машины, проверить истинность которого сама машина не в состоянии (опять же в силу теоремы Гёделя). Для самого человека эта истинность ясна в силу его математического понимания.
3... Таким образом, предположив, что компьютер обладает всеми способностями мозга, мы практически сразу указываем на способность мозга, которой этот компьютер не обладает.
4... Это противоречие. Следовательно, этот Сильный ИИ на основе классического компьютера не может существовать.
Я понимаю, что это доказательство выглядит бредом, но это не бред. Это формулировка максимально простыми словами.
Как я уже сказал, у Пенроуза всё гораздо более формально и строго. И сам Пенроуз разбирает штук 20 "возражений" против доказательства.
Условно говоря, он предполагает, что способ математических рассуждений человека является алгоритмом (что остальные люди интуитивно считают самим собой разумеющимся, и даже не задумываются об этом), и с помощью теоремы Гёделя приходит к противоречию.
Таким образом, Пенроуз заключает, что мозг в результате эволюции начал использовать эффекты невычислительной физики.
Т.е. процессы, которые принципиально невозможно описать в виде алгоритма (или, что то же самое, в виде вывода в формальной аксиоматической системе).
Т.е. это самое "понимание" математиком-человеком теоремы Гёделя само по себе так или иначе сводится к невычислимому процессу, протекающему в мозге.
Ещё до доказательства Пенроуз показал, что в невычислительных физических процессах нет ничего невозможного, а после доказательства показал, что вся известная физика является вычислительной.
Главным претендентом на невычислительную физическую теорию Пенроуз считает ещё не достроенную до конца квантовую теорию гравитации.
Для вычисления амплитуды взаимодействия в КТГ необходимо просуммировать по всем четырёхмерным топологическим формам пространства. Но данная задача алгоритмически неразрешима.
Следовательно, если КТГ верна, Природа умеет решать (по крайней мере некоторые) алгоритмически неразрешимые задачи!
И таким образом, человеческий мозг в результате эволюции научился использовать невычислительные процессы квантовой гравитации.
И чтобы создать полноценный Сильный ИИ, нужно создать квантово-гравитационный компьютер. Т.е. компьютер, который будет оснащён "чёрным ящиком", в котором будут происходить квантово-гравитационные эксперименты над соответствующими процессами. Думаю, это произойдёт не скоро, мягко говоря.
Такие дела...
Прикол, однако, в том, что многочисленные критики Пенроуза, судя по всему, даже не удосужились прочитать его книгу.
Минимум половина критиков исходит из того, что Пенроуз, якобы, утверждает, что мозг является квантовым компьютером, что полный бред.
Другая половина в принципе не понимает, при чём там теорема Гёделя. Даже великий Хокинг так облажался.
>Где на дваче можно поговорить про AGI?
В ньюсаче был тред. Оттуда:
Просто напоминаю, что Пенроуз доказал, что Сильный ИИ на основе машины Тьюринга невозможен.
Для этого нужен квантово-гравитационный компьютер.
Почему?
Это очень долгая история, Пенроуз 600 страниц написал. Но если по-простому, то вот.
Начинается всё с теоремы Гёделя о неполноте, которая говорит, что в любой достаточно сложной непротиворечивой системе аксиом (достаточно, чтобы она включала формальную арифметику) существует недоказуемое (и неопровержимое, конечно) утверждение. Более того, доказательство этой теоремы конструктивно в том смысле, что это утверждение строится в явном виде и является истинным по построению.
Другими словами, для любой достаточно обширной системы аксиом существует утверждение, про которое мы точно знаем, что оно истинно в рамках этой системы, но в рамках этой же системы доказать мы его не можем.
Это суть теоремы Гёделя о неполноте. И сама эта теорема говорит об ограничениях возможностей любой универсальной машины Тьюринга, потому что теорема Тьюринга о неразрешимости проблемы останова является просто переформулировкой теоремы Гёделя о неполноте.
Идеолог концепции Сильного ИИ и Технологической Сингулярности Рэй Курцвейл, в свою очередь, считал, что в этом никаких проблем нет. Якобы, компьютер ограничен теоремой Гёделя, мозг тоже ограничен теоремой Гёделя, никаких проблем нет.
Важно понимать, что на самом деле самой по себе теоремы Гёделя недостаточно, чтобы сделать вывод о способностях мозга, и, далее, о соотношении способностей мозга человека и компьютера.
Здесь необходим ещё один фундаментальный шаг, и именно этот шаг сделал Пенроуз.
Пенроуз доказал, что мозг не является компьютером, когда нашёл способность человеческого мозга, которую никакой классический компьютер (машина Тьюринга) воспроизвести не способен в принципе.
Далее будет доказательство в очень простой (даже обманчиво простой) формулировке.
Сам Пенроуз двигался немного другим и гораздо более сложным, но при этом и гораздо более строгим, путём.
1... Короче, предположим, что некая машина Тьюринга является Сильным ИИ (т.е. обладает всеми интеллектуальными способностями (гениального) мозга).
2... Тогда любой математик-человек с помощью теоремы Гёделя может построить истинное утверждение для данной машины, проверить истинность которого сама машина не в состоянии (опять же в силу теоремы Гёделя). Для самого человека эта истинность ясна в силу его математического понимания.
3... Таким образом, предположив, что компьютер обладает всеми способностями мозга, мы практически сразу указываем на способность мозга, которой этот компьютер не обладает.
4... Это противоречие. Следовательно, этот Сильный ИИ на основе классического компьютера не может существовать.
Я понимаю, что это доказательство выглядит бредом, но это не бред. Это формулировка максимально простыми словами.
Как я уже сказал, у Пенроуза всё гораздо более формально и строго. И сам Пенроуз разбирает штук 20 "возражений" против доказательства.
Условно говоря, он предполагает, что способ математических рассуждений человека является алгоритмом (что остальные люди интуитивно считают самим собой разумеющимся, и даже не задумываются об этом), и с помощью теоремы Гёделя приходит к противоречию.
Таким образом, Пенроуз заключает, что мозг в результате эволюции начал использовать эффекты невычислительной физики.
Т.е. процессы, которые принципиально невозможно описать в виде алгоритма (или, что то же самое, в виде вывода в формальной аксиоматической системе).
Т.е. это самое "понимание" математиком-человеком теоремы Гёделя само по себе так или иначе сводится к невычислимому процессу, протекающему в мозге.
Ещё до доказательства Пенроуз показал, что в невычислительных физических процессах нет ничего невозможного, а после доказательства показал, что вся известная физика является вычислительной.
Главным претендентом на невычислительную физическую теорию Пенроуз считает ещё не достроенную до конца квантовую теорию гравитации.
Для вычисления амплитуды взаимодействия в КТГ необходимо просуммировать по всем четырёхмерным топологическим формам пространства. Но данная задача алгоритмически неразрешима.
Следовательно, если КТГ верна, Природа умеет решать (по крайней мере некоторые) алгоритмически неразрешимые задачи!
И таким образом, человеческий мозг в результате эволюции научился использовать невычислительные процессы квантовой гравитации.
И чтобы создать полноценный Сильный ИИ, нужно создать квантово-гравитационный компьютер. Т.е. компьютер, который будет оснащён "чёрным ящиком", в котором будут происходить квантово-гравитационные эксперименты над соответствующими процессами. Думаю, это произойдёт не скоро, мягко говоря.
Такие дела...
Прикол, однако, в том, что многочисленные критики Пенроуза, судя по всему, даже не удосужились прочитать его книгу.
Минимум половина критиков исходит из того, что Пенроуз, якобы, утверждает, что мозг является квантовым компьютером, что полный бред.
Другая половина в принципе не понимает, при чём там теорема Гёделя. Даже великий Хокинг так облажался.
Скоро, в педофилии вся суть МЛ
>Такие дела...
Типичный пример, когда маняматики засунули свои грязные рыла в очередную область в которой они ничего не понимают и пытаются натянуть на свои манятеории пуская пызыри пятаками.
И почему считается что теоремы ГёделяЖопеншмульцера не является ложной?
>теоремы Гёделя не является ложной
Она является логически доказанной в пространстве маняформализма Гильберта.
дообучить gpt2 от сбера
обучить с нуля свою gpt
Или есть еще какая архитектура под эту задачу?
>пространстве маняформализма Гильберта
Вот я про то же
>Хокинговского излучения
100500 напридуманных элементарных частиц им мало...
Ты хочешь intent based чатбота или сonversational AI?
Первый давно отработан и работает как часы. Хватит bertы, простого классификатора и какой-нибудь rasa для ведения dailog managent.
То что касается сonversational AI, то спецовые архитектуры себя не то чтобы проявили. DeepPavlov Dream из более-менее доступных, но там английский только. Сберовский GPT2 после Few-shot смог лишь имитировать жизнедетельность. Так что вопрос открытый, экспериментируй.
хуйня, но про матёшку все верно, не всралась от слова совсем
одухотворенные додики годами фантазируют себе CS, а потом случается DS :о
> Почему вы себе еще не купили экспертную систему по изобретениям в method.ru и не живете на деньги от патентов?
потому что есть дела поважнее
Второй вариант мне больше подходит.
Нашел еще такое:
https://medium.com/huggingface/how-to-build-a-state-of-the-art-conversational-ai-with-transfer-learning-2d818ac26313
Но у меня выходит задача проще. Нет никаких характеристик говорящих персон.
Образец диалога у меня выглядит так:
А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end>
Б: А сколько билет стоит? <end>
А: Косарь. <end>
Б: Дорого, не пойду. <end>
Персоне А отвечало множество людей, но это у меня уже другая запись в БД. И тут интересно, как обучать модель.
Я в трансформерах не спец, но пока вижу 2 способа:
Просто загонять все диалоги, и пусть каждое следующее слово предсказывает. Полагаю, так гпт и работает.
Либо же дробить каждый диалог так, чтобы предсказывалась следующая реплика Б:
[А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end>] --> Б: А сколько билет стоит? <end>
[А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end> Б: А сколько билет стоит? <end> А: Косарь. <end>] --> Б: Дорого, не пойду. <end>
все ради ноуки! ну нинад плз((
Вроде да
В какой момент вакансий стало так мало? После февраля?
Где лучше всего (кроме hh и ods) искать вакансии?
Это у меня резюме говно или сейчас действительно игнорят многих?
>А: Кто хочет сходить на концерт мейби бейби из группы френдзона? <end>
>Б: А сколько билет стоит? <end>
>А: Косарь. <end>
>Б: Дорого, не пойду. <end>
Это строго intent-based сценарий со slot-filling. Кури rasa, там всё готовое и с админкой.
>Есть кто ищет сейчас позицию на джуна?
Забил на это еще до пыньоперации.
>В какой момент вакансий стало так мало? После февраля?
Да.
>Это у меня резюме говно или сейчас действительно игнорят многих?
На одну вакуху сейчас по 35 резюме на hh.
Машина в облаке собирает раз в сутки с апи хх.
сука как же не тресет от пиздорылых крестодаунов, пиздец просто..
>смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu/ (введение в нейроночки)
На ютубе нашел, где задания брать?
ods это не сайт, это конфа в слаке (теперь в матриксе) и там есть канал _jobs, куда челы скидывают вакансии. Это я хз что
За неделю с 27го там 13 вакансий запостили, на сайте 2. Так что сайт это какая-то хуйня новая необкатанная
> слаке (теперь в матриксе
ух бля, спасибо няш, буду знать теперь
(чувствую себя старичком (на хую вертел это уебище кривое и убогое))
По мне так какое-то уныние
120к до налогов это как джуну бэкендеру в яндексе. А где ж хваленные супер зп от сбертеха
> бэкендеру
ты не сравнивай унылейшую еблю СКУЛЯ с датасаенсом, где ты в авангарде! где ты создаешь будущую реальность и меняешь мир вокруг себя!!
> джун
бесполезный кусок говна, пусть радуется тому что есть и еще больше тому что будет
> хваленные супер зп от сбертеха
они кому надо хваленые, а в дс все ушло на оплату оффиса))
>с датасаенсом, где ты в авангарде! где ты создаешь будущую реальность и меняешь мир вокруг себя!!
Бля, какой же ты шиз всё-таки. Помню тебя ещё по тредам в ньюсаче, в которых ты своё сверхЧСВшнутое шизоидное говно постил.
> в ньюсаче
гречневый заповедник, я тогда знатно охуел с этого открытия и меня перекрыло
я после двача вообще не могу с отбросами нормально общаться
на вц забанили олмост инстантли, на пикабу я чуть не погиб от гречневого рака
думал хотя бы в тг группах сидят топчики и конструктивно разумно обсуждают интересные вещи, но нет, биомусор и туда протек и отравил все каменты, только там еще и проститутки в первых каментах...
чувство будто я застрял на дваче как в чистилище ебучем..
А у тебя в семье все такие же "успешные", как ты, или ты всю свою семью считаешь гречневыми отбросами, недостойными существования, и ненавидишь, и презираешь их?
а ты додик и считаешь что родители это СВЯТОЕ ?))) %%ссу тебе на еблище, подставляй другую щеку уебок%
хуле толку, машоб всё, перекатывать нет смысла
Какие перспективы у машоба в ближайшие 2 года? Почему пишут, что машоб умер?
вообще этот мув про родителей довольно убогий сам по себе, тому чмошнику надо взрослеть
очевидно что речь шла за профессиональные разделы со специалистами с родителями проблем нет, батя так и вовсе герой и человек увожаемий
> млпедофил
а тебя не смущает что все мои картинки из открытых источников? чаще всего вообще с ютуба лол
может просто кто то (ты) уже пизданулся на этой теме, м? зашоренная ебаная ханжа?
>>395669
> Почему
потому что додики из яндекса выехали на кипр и все затряслись
а еще потому что из-за укрепившегося рубля дешевле купить у китайцев готовый продукт или нанять там разрабов
Как раз для тебя выкатили плейбук по файнтюну rugtp-3 в русскоязычного чатбота.
https://hogwarts.monetka.name/
https://github.com/NeuralPushkin/Shitty-hogwarts
Про безумную монетарную политику фрс уже всем известно. Речь о российском рынке труда в сфере тека, а именно о сокращении числа вакансий.
сокращают ну и чего бухтеть то
пока лето сходи на речку, заведи тян или я хуй знает займись петом, у тебя ведь есть рублевая подушка, правда же?
> Чет ума не приложу вообще.
значит не твое, ты видимо не мл-педофил, а просто педофил
(сообщил куда следует)
Что за канал?
надо на осень почву готовить.
Ну такую капчу супер легко взломать. Тут даже нейронка мб не понадобиться. Только opencv
Выбираешь из картинки самое черное - это будут буквы все вместе. Или через opencv threshold
Выбираешь контуры opencv findcontours - это будут буквы по отдельности. Буквы по отдельности пихаешь в нейронку распознающую буквы, где обучали с датасетом аугментированным на вращении и растяжение. Это уже гуглится изи - сам можешь сделать.
Но я бы вначале попробовал в цикле от 0 до 360 поворачивать букву и opencv KNearest к алфавиту.
А ну и язык перед этим определить - лучше через какое-нибудь готовое решение
и как ты это предлагаешь сделать тупому еблу которое нихуя не может и не хочет уметь - это сделать?
это был такой тонкий намек что ты высрал почти стену текста - в абсолютное нихуя
ты просто проибал время на ничего
если бы ты просто помахал пальцами в воздухе - было бы больше пользы.
тогда эмиграция твой путь
но помни что пёханье переоценено шлюхами и компенсирующими животными с низкой самооценкой
after all, photos are nice choice..
вопрос такой:
Jupyter или VSCode + Jupyter plugin или Data Spell от JetBrains?
какой ваш выбор в работе с ноутбуками? В чем плюсы и минусы. Оч интересно было бы услышать отзывы от пользующихся IDE от JetBrains, потому что рассматриваю такой вариант. Сам пользовался только Jupyter, пробовал с плагином в VS Code, но показалось лагучим.
Понимаю что более уместно было спросить в разделе с программами. Но подумал что получить хороший ответ на вопрос будет легче именно здесь
>это был такой тонкий намек что ты высрал почти стену текста - в абсолютное нихуя
>ты просто проибал время на ничего
Сказал шиз, шизопасты которого скипает половина треда.
Dataspell + jupyter + IdeaVim = какие-то регулярные глюки при переключении режимов vim
Dataspell + jupyter + интерактив (ipympl и widget) - вообще не работает.
Пользуюсь Dataspell только потому, что пользуюсь другими продуктами Jetbrains и мне там привычнее. Надеюсь что скоро пофиксят.
вскод
Я описал разные способы борьбы, но вот хочетсся разобраться в нескольких вещах
1) Можно ли их принять одновременно
2) Есть ли какие то эффективные связки
3) В чем плюсы и минусы разных способов, когда их допустимо применять,а когда нет
И что то я в интернете ответов на эти вопросы не нашел. Подскажите что нибудь
https://machinelearningmastery.com/introduction-to-regularization-to-reduce-overfitting-and-improve-generalization-error/
Блять просто 1 гугл запрос и первая ссылка.
Откуда вы такие беретесь
Делаешь 32 входа @ подаёшь на незанятые ноль
Лол это буквально на 1-2 дня материала, даже если на собесе не спросят, то не великая потеря времени.
Нет, это слишком умные слова для МЛ-макак.
Аноны, реквестирую ваш опыт прохождения собеса на джуна. Осталось буквально годик вуза, вроде чето умею, возился с датасетами, накатывал простые модели, делал кастомные признаки и занимался говночисткой фильтрацией данных и такое, больше бекграунд как разработчика, фрилансил, но остоебало уже писать круды.
Так же реквестирую реально нужные темы из тер вера, мат ожидания, ковариации и прочие подобные штуки я считать умею, что еще нужно? Нужно ли на собесе считать что-то на бумажке, ну короче, реквестирую ваш опыт или советы как мне хотя бы стать джуном(вакансии все равно нету, поэтому опыт немного приукрашу и пойду на мидла, но надо же быть честным перед собой)
Самое близкое, что я нашёл в упоминаниях, было закрытой нейросетью мэйлру для автоматического чтения почты и надписей на картинках в ней (для защиты от спамеров, конечно же). Она базируется на интеловской PixelLink, у неё ебейшее количество зависимостей, так что её даже нетривиально запустить на хоум пека.
Из других, которые я смотрел:
OCRAD (только англюсик)
GOCR (только англюсик)
Cuneiform (проект мёртв, на самом деле я даже не смог выкопать архив с ним)
PaddleOCR (много ебли с установкой, python-only, паршиво распознаёт ру-текст, очень хорошо долбит японские иероглифы)
EasyOCR (python-only, неплохо распознаёт текст на слабоконтрастных изображениях)
И конечно же Tesseract, на данный момент это нейросеть с наибольшим коммунити и обширной инфраструктурой. По утверждением бывалых бревноёбов, требует предварительного пердолинга изображений в виде перевода в ч/б и увеличения в разы с последующим повышением качества waifu2x, но у последних релизов Тессеракта аналогичные действия уже есть из коробки, так что я не понимаю, в чём смысл (алсо, на самом деле это не всегда помогает).
Обычные проблемы:
1. У всех открытых нейросеток есть проблемы с комиксовыми пузырями на рисунках, они распознают их построчно или сортируют как раздельные слова. Это решаемая проблема (достаточно склеить слова по координатной близости), но портит настроение.
2. У всех кроме Тессеракта и Окрада нет порта, который можно пробросить внутрь жирноцельного приложения без пердолинга энд юзера с питоном и кудой. Транслировать питон в с++ или js - задача решаемая, я думаю, но испортит производительность.
сейчас учусь с нуля ml, ибо математика никогда не была чем-то моим.
хочу перекатиться в ml, но по понятным причинам не хочу сильно терять в зепке
как бы вы воспринимали тим лида, который лишь в основах понимает ml и будет брать мелкие части задач и спрашивать обратную связь? зато я в принципе уверенно себя уже чувствую в области ml систем дизайна.
или как-то на фрилансе набивать опыт?
Где искать заказы? И какие самые популярные темы заказов?
В интернете мне что то попадаются только базовые статьи из разряда "что такое градиентные бустинги"
только прочесть доки к твоей либе, увеличить параметры отвечающие за качество, значительно увеличится время обучения, но и точность станет чуть больше.
ну и базовый совет - увеличить датасет. это лучший совет по увеличению точности чего угодно.
> как бы вы воспринимали тим лида, который лишь в основах понимает ml
Если он ставит задачи, то с раздражением.
Я участвовал в ML-проекте и это был пиздец начиная с того, что мне подсунули неправильные сырые данные, думая что сгодятся любые.
Это же логично, опыт SATI и вычисления белков показал, что краутфандинговая сеть мощнее любого из существующих суперкомпьютеров.
Почему так, анонасы?
p2p вычисления, особенно краудсорсинговые - говно
бесплатно это делать можно только на хайповые темы, за деньги - будут пытаться хакнуть систему, нельзя доверять результатам, нужно перепроверять.
не все алгоритмы хорошо параллелятся, а то что парараллелится, то накладные расходы больше сожрут
самое ценное в ml даже не алгоритмы и модели, а чистенькие датасеты, никто и на пушечный выстрел не выпустит их из закрытой сети компании
> на пушечный выстрел не выпустит
херню сказал.
корректнее "и на полатома не выпустит", или вообще, просто "не выпустит"
или "на пушечный выстрел не подпустит других людей"
потому что это Финальный Босс Статистического Обучения.
Ничего ему не надо. Высшая точка развития.
Можешь только в цикле гиперпараметры поперебирать, но это все равно не нужно.
>, который лишь в основах понимает ml и будет брать мелкие части задач и спрашивать обратную связь?
Как червя-пидора.
>зато я в принципе уверенно себя уже чувствую в области ml систем дизайна.
Что это, блядь? Если некто Бабушкин называет в видосиках обычное программирование system design, это не значит что все так же делают.
> Following data types have been inferred automatically, if they are correct press enter to continue or type 'quit' otherwise.
Я указал все типы в x_features, но все-равно вылезает эта фигня.
Не так давно на тематических редитах появились слитые веса stable diffusion, а я собрал вам коллаб для T2I.
Развлекайтесь.
колаб StableDiffusion 🍄
https://colab.research.google.com/drive/1yLplnDxUhfOSatH46jg1r-Cb2KK4Z4BW?usp=sharing
Пока у меня только мысль как-то криво k-means модифицировать.
Картинка для внимания.
Она первую дс работу на 150к нашла? Ещё и в марте 2к22?
Потом через 2,5 месяца вторую с ещё большей зп?
А сейчас в августе и вовсе на 250к?
Серьёзно, да?
1. Рукожопый ньюфаг[/s1]
1. Желание освоить computer vision.
2. Разметил сет картинок в labelimg в формате PascalVC (xml), там четыре класса.
Осознал, что для каскадной классификации нужно формат аннотаций переделывать и вообще это уже не труъ.
Информации с чего начинать, и что вообще делать как-то между нулём и очень дохуя, большинство туториалов предлагает готовые варианты, а я хочу сам обучить. Вышел на туториал по MASK_RCNN от какого-то индуса, который всё делает для одного класса, но я уже вижу, что через жопу, потому что он отдельно берёт сначала пути к картинкам, а потом по названиям файлов ищет аннотации. Можно, конечно, переписать его код, но мне бы хотелось натренировать модель на все четыре класса, а не на один, как у него.
Есть где-то нормальный туториал с примером обучения нейросети для опредления объектов? Вообще чем лучше пользоваться? Датасет три дня размечал, тоже терять не хочется.
> большинство туториалов предлагает готовые варианты, а я хочу сам обучить.
ты имеешь ввиду обучить, но не ДООБУЧИТЬ готовую?
Ну это тупая идея.
Делай как тут лучше
https://github.com/ultralytics/yolov5/wiki/Train-Custom-Data
Я на очень примитивном уровне сейчас нахожусь только в таблички умею, какие модели для этого надо использовать и в какую сторону копать?
берешь любую nlp-нейронку
прогоняешь текст.
получаешь вектор эмбедингов.
дальше решаешь привычную тебе проблему классификации по-табличному.
разумеется, реплики и приветствия должны быть размечены.
Конечно, у этого подхода есть масса минусов и на kaggle такое засмеют, но раз уж все равно тут один пидафилы, придется тебе меня слушать.
>изучать сигма-алгебру
Сигма алгебра -- это не предмет, как в школе, лол. Это математический объект, нужен он для введения аксиоматики (Колмогоровской) теории множеств. Мня его спросили один раз в жизни -- на кадмине, хз кому в голову может прийти спросить его на собесе, мб если ты напишешь в резюме, что закончил кафедру тервера, то могут спросить для проверки, не пиздишь ли ты.
>алгебраические многообразия
Есть 2 вещи. Первое -- это, собственно, многообразие. Понимание этого нужно для того, для некоторых алгоритмов оптимизации. Пример -- в модели матрица весов имеет специфическую структуру (например ортогональную). Тогда при градиентном спуске необходимо не только делать шаг вдоль градиента, но находить проекцию этого вектора на многообразие ортогональных матриц.
Вторая вещь -- это алгебраическая топология. Ее знать нужно, если ты собираешься заниматься областью мл, в которой отдельно исследуются топологические свойства признакового пространства. Но я так пониманию это прям специфическая область, в основном сугубо теоретическая, которая относится к химии и физике, вряд ли тебя это будут на собесе спрашивать.
>кольца, поля
Ну можешь прочитать определения в википедии, лишним не будет.
Есть задача по прогнозированию статуса человека по данным его предшественников.
Это как будет правильно на английском называться? К какому классу задач относиться?
Я находил похожие *кейсы, но там они используют TPU, а мне бы на GPU это обработать.
Я просто картинкодебил, ну там бананы спелые не спелые смотрю....
>задача по прогнозированию статуса человека по данным его предшественников.
>Это как будет правильно на английском называться? К какому классу задач относиться?
Это правильно называется Ебатория. На любом языке.
Какого статуса? Каких предшественников?
Нормально можешь формализовать?
Как таких людей до компьютера допустили - вообще не понятно
там зумеры набигают. Просто нейронки освоил и радуйся.
ML подразумевает собой классическое Статистическое Обучение - куча всякой стариковской дрочи, которую нельзя просто так выбросить. Индустрия на нее подсела и ее модели все-таки объясняемые.
На коде только обучение на тренировочном наборе данных. Он делиться на тренировочный и валидационный и там далее проводится оценка алгоритма.
А там новые данные надо было засунуть в переменную.
new = model.predict(new_data)
Я проебланился.
Существует ли сегментация бинарных изображений на нейронках? На входе -- изображения с какими то объектами, на выходе -- только объекты определенной формы. Имеет смысл вообще для такого машоб запрягать? Я пытался гуглить, но все комбинации слов binary, image, classification, segmentation выдают бинарную сегментацию/классификацию грейскейл изображений, а не сегментацию бинарных. Хуй его знает, как даже искать такое.
Ну да, но в инпуте бинарное изображение тоже. Правда до меня уже дошло, что бинарное изображение можно перевести в грейскейл. Понятно что можно тот же подход юзать просто, но может есть какая то оптимизация связанная именно с тем, что на инпуте бинарное изображение.
Короче, мне нужно что-то типа k-means, но с обучением.
>>450341
Спасибо, посмотрю, но вроде не совсем то.
Аноны есть тут разработчики алгоритмов компьютерного зрения? Интересует конкретно С++, т.к 3 года на нём работаю и на питон переучиваться не хочу. В целом находил пару вакансий типо https://hh.ru/vacancy/68078949?from=vacancy_search_list&hhtmFrom=vacancy_search_list&query=c%20%20%20computer%20vision
Так что какой-то спрос есть, проблема в том что нихуя не понимаю как погружаться в эту тему. Сейчас подтягиваю математику и изучаю классический CV и алгоритмы обработки изображений, но что дальше делать непонятно. Есть тут такие же вкатуны-плюсовики, опишите как учились
Бля, как круто, когда после стольких мучений и мытарств обучение запускается, циферки бегут.
Это лучше, чем секс.
А с другой стороны, у меня хоть всё правильно работает?
Задал параметры для YOLOv5
--img 800 --cfg yolov5s.yaml --hyp hyp.scratch-low-edit.yaml --batch 32 --epochs 100 --data crap.yaml --weights yolov5s.pt --name crap_det --device 0 --workers 1
Вроде должна видяха работать, но я вижу, что немного загружен проц, а у GPU только память. Так и должно быть?
>Интересует конкретно С++, т.к 3 года на нём работаю и на питон переучиваться не хочу.
Я бы понял, если бы у тебя были проблемы переучиться наоборот, с питона на плюсы.
Там подводных камней то всяких знать не нужно, просто будешь методы из skimage или ocv дергать по большей части. А для всяких сложных штук проще написать расширение на C/C++ и подтянуть его, никто алгоритмы то на Питоне самом не пишет, только совмещают уже готовое. Собственно, у тебя уже будет приимущество что ты знаешь Си по сравнению с питон-онли макаками.
>Я бы понял, если бы у тебя были проблемы переучиться наоборот, с питона на плюсы.
Двачую этого. Вообще не понятно, что там можно изучать в питоне, зная плюсы. Это как после управления боингом вкатываться в трёхколёсный велик.
А если нет друга из грузистана
У меня древняя пека, на ней стоит старенький Abby Fine Reader 12 от 2013 года. Он рукописный текст не распознал, крокозябры вывел как результат.
В 2к22 чем принято рукописные текст распознавать, в тренде использовать OpenCV, Keras и Tensorflow?
>>теоремы Гёделя не является ложной
>Она является логически доказанной
> в пространстве маняформализма Гильберта.
Братишка, ебать ты долбоеб.
Ну типа считается, что если ты не запустил свою ноу хау научную разработку в прод, то считается что ты песдабол. Типа ты должен сделать разработку и с пруфами с неё бабла залутать, тогда поверят, что ты реально научен.
Но если ты родственник друг старых пердунов учёных мочёных, то они тебе поблату все подписи нарисуют и ты без всяких требований можешь получить научную степень.
Не знаю, в какой такой науке требуют какую-то коммерческую хуиту.
Или это типа значит, что ты хочешь с улицы сразу в науку вкатиться без аспирантуры?
Ну в прикладухе типа машоба можно и так, наверное.
Или тебе уже в этой "науке" придётся запускать в коммерцию свои разработки вместо того, чтобы решать охуенные задачи и делать публикации?
Нихуя я не понял, короче.
Улучшение качества модели это в 99% случаев улучшение качества/увеличение количества и в 1% успешный случайно выпавший сид/переборы гиперпараметров/разных библиотек бустинга итд
Для гугла обязательно создавать надо облако и регаться с забугорной картой, я так понял.
Там же всем похуй на образование. Можешь сказачать что ещё учишься, если вдруг не похуй (всем похуй)
что есть "ожидаемое значение ошибки" и почему оно не 0?
В реальной жизни, улучшение чаще всего происходит из добавления новых фичей
потому что сеточки, которые реально долго обучать, не получится впихнуть в видеопамять среднего кудахтера
наверное можно как-то извирнуться и передавать не всю сеть, а только отдельный слой, но это сильно затормозит скорость обучения.
Да и надо ли оно кому-то? У корпораций, которые обучают такие сети, проблем с железом нет.
>зато я в принципе уверенно себя уже чувствую в области ml систем дизайна.
как ты можешь чувствовать себя уверенно в области ml систем дизайна, если у тебя нет опыта/интуиции во внедрению той или иной ml модели?
Как-как блядь, выучиваешь ключевые слова и ответы на шаблонные вопросы, тяп ляп, немного техлидской бычки и готово
https://www.dls.samcs.ru/
В целом неплохой, содержание довольно стандартное. Из недостатков, со слов проходившего его приятеля - несколько мутные дз, а чат поддержки - это клоака на дохуищу людей, которые постоянно туда всякую хуйню срут.
В компании лидере своей отрасли
Как и на каком этапе нейронки определяют красивое лицо от некрасивого?
Допустим я хочу кое что сделать такое, но как выводит подобное в прод, хотя тулза будет скоро готова - не знаю, я даже не понимаю как монетизировать это...
Год-полтора будет норм.
Но можешь раньше, если найдешь работку в крупной компании (настоящей крупной - яндексы, вк, сберы, тиньки) и будешь готов остаться там подольше.
Желательно не бегать по компаниям,
спасибо за ответ!
Была идея сделать утилиту для нарезки SQL-таблицы на батчи, но как-то маловато для курсача
про временные ряды более-менее понятно, а как генетический алгоритм к теме баз данных подвязать? Курсач именно по БД, просто для себя хочется связанное с машобом, а то все делают тг-ботов как под копирку.
лол, на дейлике узнал, что у нас весь девопс забрали на фронт. Джаваскрипт - зло.
Сап. Я залетный, прогромирую мышкой, худо-бедно чужой код на питоне копипастить могу, суть не в этом.
Заинтересовали GAN-секты, в частности которые могут беспонтовый скетч превратить в че-то няшное.
Есть ли на гитхабе аналоги playform или nivea gaugan которые я смогу гонять на своем кудахтере?
https://vimeo.com/394682544
нужен дата сет поверхностей пола линолиума ламинта и тд для каскадов харра гугл не находит
чтобы считать пол нулевой кородинатой
как избавится от шумов оператора кани??
Или имеет смысл каждое изображение в формате 128х128х3 прогнать через одни и те же свёрточные слои, то есть передавать на вход как 4x128x128x3?
На выходе нужно ещё одно изображение, пятое.
https://news.ru/world/v-turcii-gosbanki-perestali-obsluzhivat-karty-mir/
Какая практическая польза от нейросетей? Они буквально никакой дельный результат не выдали, кроме побед в играх.
Если ты мимокрокодил, то можешь посмотреть вот это, очень популярно рассказано: https://youtu.be/yX_k_mkCz0k
В играх это как раз очень крутое достижение, и потому на него такой акцент, что это на порядок круче распознавания голоса или ещё какой фигни - уже не рутинная узкоспециализированная задача интеллектуальной обработки, а что-то про систему принятия решений, что приближает ии к решению всё более общих задач.
Вот у меня тензор четырёхмерный, почему я не могу в свёрточном слое указать, что я сворачиваю по осям 1 и 3?
Я конечно могу свапать оси - но это достаточно вычислительно-эффективно?
Типа, мне нужно из 4-64-64-3 (четырёх отдельных изображений) получить 4-64-64-10 (четыре десятиканальных), потом это зарешейпить в 64-64-40 (совместить в одно), и это уже ещё одним свёрточным до 64-64-3 довести.
Вот как на пике нормально делать, или лучше в forward прописать view/reshape, и не делать отдельный слой по аналогии с тензорфлоу?
И ещё снова к разговору о тензорах большой размерности - оно воспринимает входные данные 4х3х64х64 как батч из 4. А если ему засунуть 100х4х3х64х64 пишет ошибку. Стоит использовать Conv3d с размером ядра (1,3,3), как на третьем пике?
И вообще что в целом прочитать, чтобы не было глупых вопросов, на которые я нахватаюсь ответов отдельных - а какое-то цельное представление сложилось и я больше не заходил в тред.
Пробовал биндинг торча на раст, но работает через жопу, чувство как будто бета-тестом занимаюсь.
На шарпе вообще пиздец вместо биндинга.
Биндинги ТФ пока даже трогать не хочу, чувствую там ещё хуже.
Кресты 146% дадут фееричную еблю, это уже проходили.
Есть что-то для таких как я? Чтоб полный цикл обучения/деплоя был на нормальном компилируемом языке, а не скриптовом, с поддержкой куды? Или таким шизам только на самый низкий уровень писать код на самой куде? Алсо, работать по теме нейросеток не будут, я не студент-вкатывальщик, на вакансии поебать.
Или уже просто пересилить себя и с кривым ебалом писать на питоне?
Коллаб как-то раздражает, макбучный radeon pro vega 20 тоже не радует.
Что лучше по баблу и удобству? Где-нибудь арендовать? Где? Или может попробовать собрать комп с норм видюхой?
Что-то на a100 и a40 совсем дикие цены, но просто видюху на 24гб можно прикупить для хобби.
Но на самом деле, полноразмерный комп собирать не хочется. Может попадались нормальнее готовые компы в мини формфакторе?
не звизди, на ржавого он переписал и стало быстрее
все что можно, уже и так написано на православных сях, и работает блейзингли фаст без этих ваших хипстерско-транс-языков
>с держанием типов в уме
Можешь указывать через двоеточия же.
>Во-вторых, производительность
Да. Но если ты используешь для обработки нумпи или ещё чего-то, то скорость нормальная. Типа, это не так важно, так как обучение нейронки будет занимать 95% (если на 99.9%) времени по сравнению с подготовкой данных даже на питоне.
>Кресты 146% дадут фееричную еблю, это уже проходили.
А я юзал тензор из крестов и нормально себя чувствовал...
Типа, я сишист-низовик, мне норм даже на си писать без плюсов - и я привык к прямому управлению всему и нормальной производительности, но я понимая что самый эффективный способ сделать нейронку - это разрабатывать её на питоне, выводя графики и всё остальное через matplotlib или ещё чего, а потом, если я сделаю что-то работающее и подберу нужную архитектуру и всё остальное, можно переписать на си, чтобы те 5% времени что готовились данные исчезли, и я получил ещё пару процентов производительности и меньше по сравнению с питоном потребление памяти.
В общем я точно советую ещё себя помучить и изучать-пробовать примеры на питоне. А потом, когда разберёшься можно будет уже переписать на язык тебе угодный, если останется необходимость.
Если ты датасет обрабатываешь и проблема с производительностью только тут - ты можешь просто модуль numba заюзать, или вызвать внешнюю программу на твоём языке.
> Можешь указывать через двоеточия же.
А что с Any в нативных либах делать? Приходится лезть в доки и потом постоянно держать в памяти что там на самом деле. Включаю проверку типов - половина кода красное.
> Но если ты используешь для обработки нумпи или ещё чего-то, то скорость нормальная.
Ну вот я взял numpy и ахуел. ЦП в соточку долбился и боттлнечил гпу. Хотя там 50 строк кода в секунду выполнялось.
> В общем я точно советую ещё себя помучить и изучать-пробовать примеры на питоне.
Похоже придётся. Я вот на расте запилил, вроде норм, но ебался много.
> можешь просто модуль numba заюзать
А почему сразу Pytorch на гпу нельзя использовать вместо numpy? Он один хуй инициализируется же.
Покажешь код? Что ты там такое с данными входными делаешь, что у тебя узкое место в подготовке данных?
>А что с Any в нативных либах делать?
А что с ними делать? Ты просто для себя заметки же ставишь, если тебе нужно.
Вообще не знаю о чём ты, ты можешь в любом месте print(type(...)) написать и посмотреть что там во время настройки-отладки. Можно навести мышку и кликнуть через ctrl и пучарм покажет как эта переменная появилась, что снимает проблемы с пониманием типа до минимума.
не знаю на чём ты писал, что такое раст и прочее, но после с++ код на питоне понятный и никаких сложностей не возникает.
>А почему сразу Pytorch на гпу нельзя использовать вместо numpy?
numba, не numpy, модуль для jit-компиляции питона. Если тебе нужна какая-то сложная собственная обработка, которой нет в нумпи-торче - но и цеплять программу на другом языке конвертируя все типы не хочется.
А что по julia? Она живая?
> заметки же ставишь
> print(type(...)) написать
> посмотреть что там во время настройки-отладки
Звучит как хуйня. Я уже привык что код можно просто читать и он работает как читается, а не оборачивать всё простынями комментариев/принтить/дебажить то что не сломано.
> пучарм
Не люблю джаву и всё связанное с ней.
Не знаю что это.
Звучит как хуйня претензия к питону.
Мне не нравится питон (и джава тоже, да, и вообще что угодно кроме си), но я не могу не признать, писать и отлаживать код на нём удобно - и в задачах машоба, где питон лишь управляющий код, это одно из лучших решений, которое не снижает сколько бы значительно производительность задач обучения, но при этом значительно ускоряет разработку, позволяя очень быстро менять и перебирать структуры нейронок, разнообразные параметры и всё остальное, выводить красиво результаты с графиками или интерактивными кнопками и так далее. Я бы застрелился всё это писать на с++.
При этом если есть проблема с производительность - можно обработку данных перед входом или после выхода переложить на другой язык вызывая внешнюю программу, и затраты на пересылку данных будут незначительные по сравнению с обработкой, если она в самом деле требует переписывания на более эффективный язык.
А после приготовления нейронки и встраивания её в прикладную программу можно уже и на другой язык переписать, если менять архитектуру больше не нужно и нужно лишь встроить.
Или только самому писать слой за слоем и проверять что всё работает строго так же, как в исходной модели?
> ты можешь просто модуль numba заюзать
> просто
Нихуя там не просто. Надо полностью всё переписывать на чистом numpy. Вот сейчас попробовал, у меня там есть вычисления на scipy вперемешку с numpy, так твой numba высрал такую простыню ошибок, что пиздец. Я час пердолил и выпиливал scipy, в итоге это говно стало работать в два раза медленнее, чем было. Даже не хочу дальше разбираться в чём дело, нахуй.
Это копия, сохраненная 4 октября 2022 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.