Это копия, сохраненная 28 июля 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
852x480, 0:293,5 Мб, mp4,
852x480, 0:293,5 Мб, mp4,
852x480, 0:293,4 Мб, mp4,
852x480, 0:29
Для создания дипфейка требуется лишь фотография и видеоролик, в который нужно вставить лицо с фотографии. Обучение не требуется, используется готовая универсальная модель, которая сразу лепит лицо на кадры.
В требованиях заявляют 8GB VRAM. Сама нагрузка на видеокарту минимальная (если не считать использование кодировщика видео и занимаемую видеопамять), а процессор потеет. Время создания дипфейка в 10-11 раз превышает продолжительность оригинального ролика (при 30 fps; для 60 fps множитель увеличивается до 22).
Если подходящего железа нет, то можно использовать Colab. Но там иногда могут быть ошибки.
Colab: https://colab.research.google.com/github/neuralchen/SimSwap/blob/main/SimSwap colab.ipynb
Github: https://github.com/neuralchen/SimSwap
Туториал по установке и созданию роликов: https://www.youtube.com/watch?v=1NWJz_rFMq0
Если вылезет ошибка UnicodeEncodeError, то решение тут https://qiita.com/satamame/items/fdee302943b097a063de
Если вкратце, то нужно изменить строку 635 в файле serialization.py
В моем случае он находился по пути D:\ProgramData\Anaconda3\envs\simswap\Lib\site-packages\torch\serialization.py
Было:
with open(file_name, 'a+') as f:
Стало:
with open(file_name, 'a+', encoding='utf-8') as f:
Для удаления водяного знака сначала отредактируйте файл simswaplogo.png из папки simswaplogo, удалите все символы в любом графическом редакторе, не забудьте сохранить прозрачность. Но даже если сделать файл прозрачным, остается синева. Поэтому откройте файл add_watermark.py из папки util и замените 23 строку. Должно получиться:
def __init__(self, logo_path, size=0.3, oritation="DR", margin=(5,20,20,20), angle=15, rgb_weight=(0,0,0), input_frame_shape=None) -> None:
То есть вам нужно просто обнулить значения rgb_weight
Напоминает сцену из "Бегущего по лезвию", где поверх ирл шлюхи накладывалась голограмма ИИ-тянки.
КРИПОТА
Просто ты принёс нейросетку и показываешь её худшую сторону. Нелогично как-то.
Мне минеты больше всего нравится смотреть в порнухе. Желательно от первого лица.
АААААААААА)))) Почему именномэдисон? Я так проорался. Спасибо.
Это вопрос к разрабу, китаезе
Ваномас
Новая ссылка на Colab: https://colab.research.google.com/drive/1cTNIrIkfhy7WQY6j_ebK9Raipg0VSaxE
Когда дойдете до этого места (пикрелейтед 2), перейдите по ссылке, получите и введите код, теперь все будет грузиться с вашего диска гугл.
Ну а дальше все, как здесь >>249917101
> >>249917101
Запускаешь все в первый раз, ждешь.
Потом грузишь картинку и ролик в папку demo_file, меняешь имена файлов на пикрелейтеде на свои.
Запускаешь последний фрагмент кода, ждешь.
Когда все закончилось, заходишь в папку output и качаешь файл demo.mp4
Traceback (most recent call last):
File "test_video_swapsingle.py", line 50, in <module>
img_a_align_crop, _ = app.get(img_a_whole,crop_size)
TypeError: 'NoneType' object is not iterable
Неверно указан путь к видео или картинке
Передайте всем, чтобы перекатывались сюда, в /b/ меня забанили
О помогло, просто. Просто формат был не JPG а jpg Хз в чем разница
два чаю, робит всё
ориг третей кинь.
Ты же в курсе что это немного не так работает. 10 или 20 или около того скачиваний и будет писать ошибку что пользователь не открыл доступ к файлу, что то типо лимита на скачивания.
А еще загрузка файла на диск колаба крайне долгая, быстрее подгружать с диска, тем более можно подгружать файл через запуск ячейки.
Если хочешь могу причесать колаб.
мимо-анон-с-нейронкой-генерирующей-по-фразе-от-сюда https://2ch.pm/pr/res/2003482.html (М)
да, тот тред мертв
В общем вот, два с небольшим клика и без необходимости подключать гуглодиск или лить фалы в папку
https://colab.research.google.com/drive/1RDsbQNbSPlG2Ar62ngyV0udytb-zym1X?usp=sharing
До конца проверить не смог так как гугол ебанул лимиты на каждый акк по 5 минут но вся установка и начало генерации работает. Алсо те файлы подкачивает с меги самым васянским из возможных путей.
Спасибо, добавлю в шапку как альтернативу
Не совсем понял. Там уже при загрузке через ячейку при нажатии кнопки загрузить файл открывается проводник для выбора файла с компа. Или ты про ручное перетаскивание в среду колаба и ввод пути?
Ладно встану и посмотрю
В принципе можно сделать, но при попытке скачать снова в ту же папку ячейка с мегой выдает ошибку и прерывается так что все ок.
Я не прям профи среди профи и мне нужно сразу тестить работает ли код или нет. А лимит колаба почему то почти сразу исчерпывается сегодня.
Когда лимиты на акках сбросятся прикручу проверку.
Спасибо анонче! Работает.
>В требованиях заявляют 8GB VRAM. Сама нагрузка на видеокарту минимальная (если не считать использование кодировщика видео и занимаемую видеопамять), а процессор потеет. Время создания дипфейка в 10-11 раз превышает продолжительность оригинального ролика (при 30 fps; для 60 fps множитель увеличивается до 22).
Блядь, если по русски написать для крестьян, то вам нужна как минимум КЕЧ 3060 (самый дешевый варик - на пике), и хотя бы какой нить всратенький i5-10400. Заебись, хуль, чтоб творить всратую хуйню, на которую даже у 14 лвл сперматоксикозника не станет.
На изи создаю фейки с 2070s и ксеоном, у которого частота 2,6 ГГц.
Также аноны писали, что у них работало на gtx1650, но я не могу это проверить.
8gb - это официальные требования, по факту хз на чем она еще запустится.
>2070s
Ну их сейчас нет в продаже, да и по цене она равна 3060 брать с лохито отожжёнки после манянга не предлагать. Я к тому, что если у тебя УЖЕ нет такого конплюктера, то это довольно дорогое хобби получаеца
python: can't open file 'test_video_swapsingle.py': [Errno 2] No such file or directory
Надо питон подучить
> test_video_swapsingle.py
Либо файла нет, либо нужно через консоль перейти в папку с этим файлом
OSError: [WinError 1392] Файл или папка повреждены. Чтение невозможно
Файл хреново записался или проблема файловой системы
Что ж ты. сука, творишь...
Самая главная мамка России, на которые спускают тысячи людей
Потому что всего тысячи же.
Анон, засунь сюда пыню, ну позязя
1000x562, 0:18
Если вылезет ошибка UnicodeEncodeError, то решение тут https://qiita.com/satamame/items/fdee302943b097a063de
Если вкратце, то нужно изменить строку 635 в файле serialization.py
В моем случае он находился по пути D:\ProgramData\Anaconda3\envs\simswap\Lib\site-packages\torch\serialization.py
Было:
with open(file_name, 'a+') as f:
Стало:
with open(file_name, 'a+', encoding='utf-8') as f:
Сам бы и запилил. Предложи, с чем
Ну это бан
Желательно с пруфами
У меня норм. При запуске консоли анаконды каждый раз копирую и вставляю следующие команды.
conda activate simswap
cd C:\SimSwap-main
C:
start.bat
В start.bat каждый раз вписываю новые команды. Там иногда по 10-20 штук вполне может висеть.
1280x720, 0:18
3060ti, с видео нет ошибок, для картинок пришлось ставить более свежий cuda toolkit.
значит я криворукий даун(
Порашезависимый, спок
Ля, хороша чертовка. Нужно будет прона нарезать и заделать контент.
добавляешь ярлык в свой гугл диск и качаешь с него
Содомит блядский
https://2ch.hk/b/res/249972354.html (М)
Попробуй в поиске найти, если нет, то хуй знает как
Если красная видюха, то перекатывайся на колаб
C:\Users\Username\anaconda3\Lib\site-packages\torch если пути при установке не менял.
Ну у меня все работает на компе. Просто нужно видосы искать, чтобы контент делать. Хотя есть идея попроьовать сделать Навального и Путина, спорящих про симпл димпл.
брат сериазейшон точку пу где, у меня нет папки либ как в примере, и по поиску не находит
А вот и зоо
Чтением шапки
1280x720, 0:26
а есть туториал как через коллаб?
Если ты про кодирование видео то лучше не стоит. Качество будет в разы хуже а вес в разы больше, но да, быстрее раз в 10.
Судя по всему это уже происходит, склеивает кадры моментально. Но чтобы найти лицо, приклеить другое лицо с фотки, нужен проц.
окей, а можно ведь сделать при открытии анаконды автозапуск всех библиотек, а не вручную, как в видосе?
В батнике просто команды из образца, чтобы запустить рендеринг видео. Я его использую, когда нужно создать по 10 видео и пойти пить чай. Или просто изменить батник, а в консоли набрать start
т.е. просто:
conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolkit=10.2 -c pytorch
pip install --ignore-installed imageio
pip install insightface==0.2.1 onnxruntime moviepy
а потом последнюю строку на старт рендера и все???
Если ты это уже вводил до этого, то не надо
Достаточно активировать окружение, перейти в папку с проектом и скриптами и запустить рендер
Например:
conda activate simswap
cd C:\SimSwap-main
C:
start.bat
В батник нужно вписать что-то типа
python test_video_swapsingle.py --isTrain false --name people --Arc_path arcface_model/arcface_checkpoint.tar --pic_a_path ./demo_file/mila.jpg --video_path ./demo_file/test26.mp4 --output_path ./output/mila_test26.mp4 --temp_path ./temp_results
все блять, дошло)) не быть мне прогером 300к/сек))
У кого удастся запустить еще на более слабых ведрах - пишите, добавим в шапку.
Проц - слабый двуядерник intel седьмого поколения с 2,3ГГц в пике и HT. Я положил ноут с пассивным охлаждением на охлаждающую подставку и температура была норм, даже лучше чем на пеке. Просто скорость обработки была 1,61 кадр в секунду. Для сравнения: на пеке с намного мощной видеокартой (пикрелейтед) 2,44 кадра в секунду. Разница не такая уж и большая. Тут скорее процессорозависимость с упором в частоту, но не сильно увеличивается разница с возрастанием частоты.
Первое видео: ноутбучная видеокарта GeForce MX150 2Gb
Второе видео: видеокарта RTX 2070 Super 8Gb
Двухъядерный процессор с HT 2.3 ГГц
8Gb ОЗУ
Ноутбучная видеокарта GeForce GTX MX150 2Gb с поддержкой CUDA (красные в пролете)
Windows 10 (на семерке просто не тестировал)
Все, что сильнее, по идее должно потянуть.
Но если заработает на еще более медленных ведрах, то можно будет легко эти системки обновить.
Обьясните какие там вообще лимиты? то есть как они вообще устроены, я не могу понять, на сеанс? общее время ипользования?
как часто обновляется и тп? ничего не пойму
рискну предположить что целевая аудитория дрочащая на семенович даже установку танков считает чем-то средним между хакерством и магией.
У кого на сутки, у кого больше
Попробую на некроуте протестировать, с gt640m.
А под amd никак ни адаптировать? у меня radeon 7 простаивает.
Извиняюсь, забыл знак, это был вопрос.
Может кто нибудь залить папку уже полностью пропатченую им, со всеми папками с гугл диск и выпилиным вотер марком?
Дело только в дрочке маски каждого кадра. Этот ручной покадровый монтаж занимает несколько дней. В пизду.
Отлично. К вечеру будет готово. Возможно даже видео гайд запилю.
Для подобного результата, там нужны минимум 20 часов работы, а то и все 40, на карте не ниже 2060
АЛАРМ
Нашёл ебучее и тупое решение проблемы с UnicodeEncodeError
Замена Serialization не подошла т.к. эта срань не ставилась в окружение симсвап, подключиться к ней тоже не могу в связи хуй знает с чем.
Крч в анаконде тупо в ебучем anaconda/lib/encodings/cp1251.py меняем содержимое на содержимое в этой же папке в файле UTF-8.py
После этого спокойно подключаемся к окружению симсвапа и продолжаем мастурбацию китайской срани.
хуй знает, но мб кому-то поможет.
Там же в шапке что то про синий квадрат, а если тут настроенная папка то это быстрее.
на 2060с ставлю
640x480, 0:19
Вотемарки нет.
Гайд все так же планирую запилить вечером.
прона не было зато были шебемки и фотка макаки
Сложно сделать прозрачным изображение и увидеть результат? Не заметил никакого синего квадрата. Раве что вокруг лица немного, но то артефакты, полагаю.
накатывай пайтон, пип, а дальше по гайду
он висит теперь на проверке архива
К тому на меге рано или поздно файл выпилить могут
для этого обязательно надо шарить в пограмировании?
Вчера установка была моментальная, иногда лишь повисала загрузка архива, а теперь установка идет 10 минут
да еще и с компа грузить файлы не получается, хоть и грузил он их долго.
>>7242 (OP)
> Но даже если сделать файл прозрачным, остается синева. Поэтому откройте файл add_watermark.py из папки util и замените 23 строку.
Же
С гугл диска лимит же по 10-100 скачиваний файла в день, после чего файл можно только копировать себе на диск. А это уже сделал оп.
Сейчас проверю. Так то я заменил метод загрузки с меги, скорость там около 3 мб/сек вместо 50. Но ячейку перезапускать не надо как и фиксить вотемарку.
Но сам уже понял, сейчас буду снова фиксить, сделаю два пути, один медленный который сейчас, и другой по тому же принципу что и был. Заодно и запишу гайд.
Вот теперь точно все, только видео записать осталось но ебаный колаб снова отрубил акк спустя 4 минуты а три старых так и не воскресил. Запишите кто нить, потом добавлю, иначе на это уйдет вечность.
>>7782
Алсо с загрузкой файлов вроде все в порядке, специально сделал замену пробелов на дефисы и она работает, мб в имени файла были спецсимволы которые тоже лучше бы заменить но уже в ручную.
Не будь таким злым бакой.
Да гугл вообще, теперь даже ак левый не дает создать, номер просит, ничего не помогает, прокси, vpn, пиздец
Обоновил репак, добавил несколько ебал и видос.
https://www.kaggle.com/bananon/simswap-modifed
> file "test_video_swapsingle.py", line 2, in <module>
> import cv2
>ModuleNotFoundError: No module named 'cv2'
как фиксить, кроме повторной установки?
Соус 3 пж
Давай
Делать делай, но не распространяй
Это кому забороть удалось? У меня таж хуита
Мб от имени админа запустить анаконду?
Всм а че Куды нету уже на 30 серии? Даже типа 3090 не сгодится для таких забав?
Можно увеличить разрешение изменив в последней ячейке (640,640) на например (1024,1024), но тогда лицо все равно будет в 224р и результат видеорилейты. Заточка под запуск на проце есть но ее просрали говнокодом и скорее всего это не пофиксить. Любые параметры практически не влияют на видеопамять/использование видеокарты, тот параметр how many при 1 занимал 2.3 гб, при 500 занимал 3 гб. К тому же большая часть опций попросту игнорируется при выполнении из за того, что, судя по всему, ссылки на них добавили лишь в код тренировки который еще не заопенсорсили.
Ну и само собой каггл вроде еще сильнее не причесать, маркдовн код не завезли. Сейчас проверял раз 5 и все работает как надо и пока не встретил ни одной ошибки.
и как тут заменить
video_path = "/kaggle/input/test-inputs/1111.mp4"
image_path = "/kaggle/input/test-inputs/1615911017.jpg"
?
Разве что максимальное разрешение можно увеличить. А так нет, только файнтюнить модель а код для тренировки не опен сорс.
А это ваше поделие только видосы умеет свапать? Просто дипфейковых фоточек в нем наделать можно?
Хуле, настроек никаких, либо норм получается либо хуйня. Так что либо нажать одну кнопку либо либо месяцами обучать нейросеть.
чем вас фейссвап не устраивает?
https://github.com/deepfakes/faceswap
куча настроек, бери да подгоняй под себя
Это что-то типа дипфейслаба, тоже с обучением?
Типо, надо залогиниться и загрузить датасет?
А может датасет состоять из 2х файлов?
не пиздите нуба, лучше обоссыте, я первый раз каггл вижу прост
Парни отредактируйте молю
Судя по всему да, сам только вчера узнал про каггл и хз какие там лимиты на датасет.
Что делать?
1280x720, 0:09
Не уверен, что это улучшит прон, но попробовать стоит.
Ну, справедливости ради, для начала, учитывая простоту, всё довольно круто, но да потенциал огромен, есть куда расти. Сейчас слишком много условностей, чтобы вышло как надо.
Jerk off to me.
Оптимизаторами вроде адама целенаправленно перебираешь тысячи-миллиарды переменных для своей архитектуры виляя жопой чтобы не упасть в локальный минимум крайне ебанутейшей функции потерь с тысячами-миллиардами осей.
у них код тренировки не выложен, обещают через месяц, там будет что то вроде py train.py --dataset ./dickonface
Охуенно и фапабельно, но есть проёбы. Нужно как-то заставить нейросеть убирать артефакты. Пусть дольше рендерится, но лучше
Бля, братан, спасибо огромное, всё заработало
Ебал твою мать, говно! Вот вообще не шарил в теме. Купился на твой пост, пидарюга, думал, ты знаешь что говоришь. Скачал эту хуиту из под ногтей "хуле она вас не устроила". Петух! Она блжад меня не устроила тем, что там надо 2 видоса иметь, видос с ЕОТ для замены и видос с шлюхой. Дебил, блядь. А у меня только фотка. Кретин ебаный, если не знаешь, хуле лезешь?!
720x404, 4:28
Чот наебнулось, но пофиг. Поделил на части, потом остальное доделаю.
Лол.
Не, мне нравится сама задумка косплея наоборот. Анон молодец.
python: can't open file 'test_video_swapmutil.py': [Errno 2] No such file or directory
Почему так ? cd прописан в нужную папку
С нуля в это вкатиться можно как-то, в каком направлении копать? Или это чисто для погроммистов на опыте?
Бесплатные туториалы в инете по машобу. А там глядишь втянешься. А если нет, то за это время допилят.
Вроде как можно даже на амд запустить, но нужон линух.
У меня вчера за 15 минут взлетело. Но я погромист на опыте, да, хоть и без пайтона
как же это охуенно
Как же эти "рамки" полупрозрачные заебали.
А можно оригинал? А то подходящие видосы найти тяжелее чем поставить и запустить всю эту херню
Скорость уперлась в проц, разница в два раза примерно
Советую вкатиться через тред в программаче https://2ch.pm/pr/res/2078573.htmlи (М) изучение змеинного на уровне беру этот код, меняю это под себя и код работает. А дальше можно уже и самому писать.
>718x1280
Подскажите где брать такие исходники в мобильном формате. Что-то типо порнушного тиктока нужно.
TypeError: exceptions must derive from BaseException
Возможно ты забыл скачать какой-либо из архивов и положить, либо распаковать в нужную папку
Попробуй готовый репак https://drive.google.com/file/d/1LRJzn6yhHHZSsvITO8aZ3hds0TgJNzSD/view?usp=sharing
Если проблема с ним повторится, значит дело в зависимостях
Опиши свою проблему здесь на английском https://github.com/neuralchen/SimSwap/issues
Укажи модель видяхи и максимально подробную информацию.
Ну и прикрепи картинки, естесственно
RuntimeError: CUDA out of memory. Tried to allocate 168.00 MiB
И полный скрин с ошибкой кинь
Отсюда: https://github.com/neuralchen/SimSwap/blob/main/docs/guidance/usage.md
>Swap all faces within the video.
python test_video_swapmutil.py --isTrain false --name people --Arc_path arcface_model/arcface_checkpoint.tar --pic_a_path ./demo_file/Iron_man.jpg --video_path ./demo_file/mutil_people_1080p.mp4 --output_path ./output/mutil_test_swapmutil.mp4 --temp_path ./temp_results
Кончилась видеопамять. У тебя слишком длинное видео для 2 гигов.
> Это на процессоре или видеокарте? Мне интересно сколько на гпу занимает.
Процессор находит и заменяет лица на кадрах, а видюха хранит кадры. Занимается почти весь доступный объем видеопамяти.
Но зачем, если они в temp_results хранятся?
ГПУ скорее всего тоже участвует, иначе откуда у тебя троекратный прирост скорости.
Скинь плиз сборку и гайд по зависимостям, кучу анонов без видях и на AMD будут тебе благодарны.
redgifs
Гитхаб, же. Я не жарю за этот сайт, но вот. + показывает, что файлы недавно добавили.
Кодирует намного дольше, чем видеокарта, но это достойная альтернатива для всех, у кого красные или бюджетные видеокарты или их нет вовсе.
Согласно идее отсюда >>8175 я внес изменения, только для этого пришлось создавать отдельное окружение и устанавливать другие зависимости. Также я переписал код везде, где увидел привязку к CUDA на CPU.
Я сейчас тестирую отдельную версию, которая считает только на CPU и она работает, GPU и память не используется скриптами, хотя раньше она была забита под завязку.
Гайд для CPU с новыми зависимостями: https://pastebin.com/ZXdQ46ZD
Репак для CPU без CUDA: https://drive.google.com/file/d/1rm9Ea_8P25-bU0NGjqncWBqbkvX1ZtPx
Тестируйте, наслаждайтесь.
Работает только с методом "Swap only one face within the video". Потом может другие добавлю.
https://drive.google.com/file/d/1ywhPu87--pyEUZX2PEW1mTQycKsv1lrX/view?usp=sharing
Весит аж 65мб, но это потому что я веб-макака, а это по сути html5 в обёртке хромиума.
>выбрал видео
>выбрал фото с лицом
>нажал кнопку "готово/сброс"
>копируешь сгенерированную команду вручную из строки ниже или просто жми кнопку "скопировать"
>вставляешь в консоль нейросетки
А, забыл сказать, готовые видео сохраняются в ./output/
Там в новой версии добавили возможность заменять конкретное лицо по дополнительной фотке.
Просто скачать новый архив с гитхаба и кинуть туда модельки. Среда уже настроена, если не поменялись зависимости.
https://youtube.com/c/HeyHelenASMR
Путь верный
video_path = "kaggle/input/data1/w1300.jpg"
image_path = "kaggle/input/test1/7398.mp4
Тред для смехуечек: https://2ch.hk/b/res/250134225.html (М)
Обновить дрова и поставить CUDA toolkit 10.2. Прочекать все зависимости.
проорал в голосину
Спасибо тебе. Всё огонь. Поставил на ноут. На i3 10 поколения с 8 Гб памяти минутный ролик запиливает за минут 40. Было бы неплохо запилить версию с поддержкой Intel UHD Graphics, но и так не плохо. Лучше чем нихуя
Попытался запустить в соседнем окне анаконды второе экземпляр, памяти сожралось 100% и преобразование вылетело с ошибкой.
При этом смотрю, проц грузится на 88% процентов нахуй.
Карта gtx1080 8gb, проц ryzen5 3600x
Никак не хочет импортироваться torch, есть фикс?
>Туториал по установке и созданию роликов: https://www.youtube.com/watch?v=1NWJz_rFMq0
Ставил по этому гайду, все вроде норм, но пашет цп, а видеокарта на 0%. Так и должно быть?
а все, я жопой читаю
Конечно можно. Глаза только разуй немного.
шо? ты несешь на помойке пикабу не сижу.
Имеет смысл просто брать один кадр из порнухи с помощью ffmpeg. И запускать в режиме отсеивания картинки. Если не похожа, то либо менять фотку, либо порнуху.
Но нужно изначально отсеять плохую порнуху. Не подойдут минетчицы, шлюхи которые стоят боком, заппокидывают голову и часто крутят башкой. Подойдёт анал, соло, ебля раком и любая ебля, где шлюха смотрит в камеру. Челка все портит, разные формы еблетов тоже, фон, освещение, контрастность влияют на результат.
Это и имеется ввиду - несколько кадров как метадата.
А еще лол, мне повысили лимит на 5 часов и теперь их 35 в сумме.
Кстати сейчас через час примерно выкачу обновление каггла с функцией отдельных лиц. Пока жду работу другой нейронки которая должна превратить гололя в яблоко а потом протестю чтобы был сразу аутпут в ячейке.
Хз, пользую кеглей, все нормально.
> Kaggle-версия (не работает, только для гиков и мазохистов):
Работает же, сколько раз тесты не прогонял все в норме. Хотя хотя то что для гиков и мазохистов от части правда.
Я не тестил. Запили нормальный гайд или хотя бы пруфы, что это работает, обновлю шапку.
Да
Гайд запилил, сейчас ускорю некоторые моменты и +- через пол часа он будет тут и в каггле.
Тут не один код, а программы для работы нейросекти pytorch+cudatoolkit, которые дофига весят + либы с прочими зависимостями.
И что это значит?
Оно работает только с картинками. Если кто-то запилит как дополнительный инструмент в виде постобработки, будет неплохо. С другой стороны, неизвестно, насколько сильно увеличится время обработки.
https://github.com/yangxy/GPEN
https://github.com/bycloudai/GPEN-colab
Тогда вообще всё код, которые в ноликах и однерочках. Даже твоя музыка, картинки, игры.
https://youtu.be/ZzCDFA328-Q
Оно вроде не может обрабатывать секвенцию. Нужно разбить покадрово твое видео, потом подгружать ему каждый кадр, а потом опять всё склеивать.
Судя по видео там все не идеально, хотя вполне возможно его прикрутить между процессом замены лиц и склейки лиц, завтра-послезавтра посмотрю что можно сделать если это уже кто то не сделает.
Я писал как олды с нотепадом сбоку, диванон полностью невозможен. Наверное. Осталось ускорить некоторые моменты и все.
Значит нужен отдельный скрипт, который все-это сделает.
Так симсвап же меняет ебало на основе ряда кадров, вмешательство может поломать всё. Если и делать, то как вариант обработки уже собранного видео.
>>8366
Бинарные зависимости что, по-твоему? Тот же код, только в виде команд, операндов и прочих подобных штук для машины или для интерпретатора. И если в коде для человека используются длинные читабельные названия команд и операндов, то там они зачастую очень короткие.
9Гб это почти 100 миллионов строк текста по 100 символов в каждой, к слову.
Можно попробовать вначале апскейлить и прогнать фотку, а потом уже покадрово видео. Но тут загвоздка в том, что каждый отдельный кадр может дать разный результат.
> то там они зачастую очень короткие
Машинный код короче, но его больше. Поэтому одна строчка на языке высокого уровня, это дохера строчек на машинном коде, особенно если это сложная функция.
Так что бинарники всегда больше обычного кода.
Сложная функция состоит из нескольких проще, которые так же состоят из других: с очень большой вероятностью эти функции будут повторяться, то есть вести в одни и те же места. Как, например, перемножение матриц, которое просто складывает и умножает числа несколько раз.
Посмотри сколько весят бинарники игр и прикинь сколько уникального кода влазит в 9ГБ.
> Сложная функция состоит из нескольких проще, которые так же состоят из других: с очень большой вероятностью эти функции будут повторяться, то есть вести в одни и те же места.
Чувак, прочитай, как компилятор генерирует исходники в машинный код. Разные компиляторы могут сгенерировать бинарник для одного и того же кода совершенно различных размеров. Бинарники весят намного больше исходников, это факт. Если только ты не пишешь демосцены, но вряд ли еще кто-нибудь такой хуйней будет заниматься.
Не совсем, он конечно меняет в ряде, но кадры записывает в папку темп, а потом из видео извлекает аудио и записывает аудио и кадры из папки темп в видео. Если до записи в видео эти кадры скормить гпену, записать в папку например темп2, удалить папку темп и переименовать темп2 в темп, то разницы для алгоритма склейки не будет. Это же просто но нужно менять скрипты которые разрабы постоянно обновляют.
> Бинарники весят намного больше исходников, это факт
Лол, и игры без сжатия весят меньше,а если распаковать архивы так каждая игра будет весить под 1гб. А эти ваши 116 гб в рдр2 это наебка маркетологов чтобы продавать жесткие диски.
Я работал и с асмом, и с высокоуровневыми компилируемыми и интерпретируемыми языками, поэтому и пишу. Если ты говоришь про исходник в одну строку, но с кучей зависимостей, то ясен хуй если их подтянуть в один бинарник, он будет гораздо больше и похуй, что 99.9% оттуда и не используется.
Звук нинужон и выпилен ради размера файла.
Или качество фотки слишком плохое?
Ех ок... спасибо
Что делать
fatal: unable to access 'https://github.com/neuralchen/SimSwap/': Could not resolve host: github.com
Тогда я дождусь, пока все устаканится и только потом обновлю репаки на стабильную версию. Править каждый день CPU-версию муторно и утомительно.
А, ну да, разрабы при обновлении пофиксили ошибку в имени одного файла. Сейчас сохраню с фиксом.
1080x1080, 0:35
В блокнот ее не вклинить потому что при полном разрешении у меня крашит хром, при порезанном в два раза видео загружается минут 10 и лишь при урезанном до 360р оно работает нормально в выходе ячейки.
>>8333
Убирай заметку о неработоспособности и припиши что есть видеогайд >>8400. Про мазохизм можешь оставить.
Обновлено
Лучшей залей анона исходников коротких, как пик рил 2, что бы меньше резать людям
от 10 до 30 сек.
Лучше коротки до 40 сек. 10-20 идеально, что бы протестировать и посмотреть как ложится, если результат хороший, значит можно еще брать отрезки из соуса. Если нет, не тратить зря время
я уже не много по юзал, и до этого использовал еще faceswap
vмогу сказать что тут нужно хорошо выбирать кадры, в идеале это где персонаж которому мы хотим заменить лицо, должен смотреть в камеру, и желательно как можно меньше крутить башкой и тп
так как все происходит на основе одой пикчи
научить бы его скармливать пару фото, сбоку и тп, с разных ракурсов
Да, я тоже на этом спотыкался. Как решить не понял и в итоге запустил локальн
Красаучик.
Всё работает, только что-то не особо заметна акселерация ГПУ , быстрее чуть больше, чем в 2 раза, в сравнении с ЦПУ сборкой.
с реквестами своих еот сразу нахуй
discord(точка)gg/gQenGuFNTn
discord(точка)gg/gQenGuFNTn
discord(точка)gg/gQenGuFNTn
Немного по конфоблядски, но и ладно.
Да, только не пытайся обрабатывать видосы где более 2х лиц.
на 4гб все работает, там все от проца зависит
Я уже сделал...как удалить блять теперь...
conda install pytorch==1.8.0 torchvision==0.9.0 torchaudio==0.8.0 cudatoolkit=10.2 -c pytorch
pip install --ignore-installed imageio
pip install insightface==0.2.1 onnxruntime moviepy
Ты вот это не выполнил.
Вообще большую часть ошибок можно пофиксить просто пересобрав среду, либо проверить действительно ли ты скопировал все перечисленные в гайде папки.
Короче мб кому поможет. У меня по дефолту не стояло название типа файлов. Либо в панели управления отключить, либо так. У меня заработало.
От такой тематики просто тащусь, вообще я считаю fpov заслуживает отдельного треда. Кстати я мечтал о ней ещё до того как она стала популярной.
скидывай, может сделаю
112 строчка файла Mainform.cs из исходников
> var processArgs = $@"/K C:\Users\{windowsUsername}\anaconda3\Scripts\activate.bat C:\Users\{windowsUsername}\anaconda3";
Если бы можно было изменять значение этой переменной в зависимости от выбранного пути, то проблем бы стало меньше.
Каждый день выкатывать новый репак под минорные изменения слишком утомительно, подожду стабильной версии.
Да я просто держу в курсе. Не напрягайся так, Опчик.
> Какое решение нужно для установки на unix систему?
Аноны подтверждали запуск на линухе. Про mac os не в курсе.
Спасибо, анончик, спас дурака!
Как-то так
> cd D:\SimSwap\SimSwap-main
> D:
> conda activate simswap
При условии что у меня все в D
1280x720, 0:56
Ее именные держатели для пустышек.
Протестите плиз кто-то на этих фотках.
868x720, 0:13
> на фейсап треды с анонами?
Это пока что самое неожиданное применение технологии, которое я видел за четыре треда
Ну почему? Были же Reface-треды, где анон своё лицо вставлял поверх кадров из фильмов.
https://2ch.hk/b/arch/2021-05-22/res/247126069.html (М)
ахуенно, спасибо
Молю, сможешь сделать? Хоть за мани, тг aceone23, материалы дам
https://stackoverflow.com/a/64616186
https://github.com/RadeonOpenCompute/ROCm/issues/666
А уж если совсем кратко: AMD - пидарасы, которые считают своих клиентов дебилами.
Перенести Sim Swap на CPU намного проще, чем портировать её на AMD. Даже шансы портирования на встройки Intel выше, хоть и не являются простой задачей.
Тут не все совсем верно. Есть возможность запускать нейронки с помощью vulkan (что то вроде dx и opengl но пиздатее) который заведется практически на любом цп/гп, любой операционке и даже на телефонах.
Сам проект от тенцентов (те которые из большой Хi и те которые пабге) но это не должно смущать
https://github.com/Tencent/ncnn
Вот например waifu2x который изначально куда онли
https://github.com/nihui/waifu2x-ncnn-vulkan
Или имейдж классификатор на телибоны
https://github.com/nihui/ncnn-android-squeezenet
Вообще у https://github.com/nihui нихуя так репозиториев с ncnn.
И сок в том что практически любую нейронку так можно запихать в vulkan, и это запустится везде и пойдет быстрее.
Но вот сам в это не влезал слишком глубоко, и судя по всему там нужен не только питон а я знаю только его и немного с. Если тут есть гении красноглазия, советую изучить эту хуйню.
Забыл добавить, саму нейронку необходимо конвертировать под вулкан. В этом основная сложность. В принципе питонский код разрабов переписать даже я смогу.
>Туториал по установке и созданию роликов: https://www.youtube.com/watch?v=1NWJz_rFMq0[РАСКРЫТЬ]
>
это не Туториал это кусок говна!
Всего то 5 часов понадобилось на стабильность
Анон, замути видео с этой тян, пожалуйста.
Потому что код писали питонисты, а питонисты знают только питон и в основном обходят стороной фронтенд так как боятся на интуитивном уровне css и html с жабой скриптовой. Язык С же пугает тем что есть решетки, решетка, плюс и плюсы и поэтому он так же избегаем всеми труъ питонистами даже не смотря на то что на нем пишут большинство экзешников спермы.
мимо-питонист
та даже 5 летние дети trainer для игр делают.
любой упаковщик за 1 доллар проблема?
ну ладно пусть я не прав.
но почему просто всё в 1 архиве не скидывать?
а если половину ссылок забанят а выйдет обновление?
это ещё версия хуйня не универсальная.
мне разраб в стим игру написал за 3 дня.
за 30 рублей улетает.
вопрос был в 10000 рублей.
ну я хз. спорно толсто. твою идею не поддержат просто потому что всё сыро ещё и через жопу работает.
те же AMD тебя просто загнобят,
Сам проект загнётся потому что AMD проблемы а это уже грубо -50% всех людей грубо
И потому что слишком муторно хотя мне понятно вроде, но это слишком муторно и долго.
У парня 4 411 просмотров27 июн. 2021 г. а могло быть 10 млн .
почему так мало? слишком сырой и кривой проект!
\
мужик ты же даже в фотошопе или в сони вегас можешь лицо поменять.
а они универсальны и поэтому популярны.
а это говнецо жидкое ещё.
Можешь попробовать прогнать через топазовский видио енхансер
Не используй webm, оно шакалит, лучше mp4.
Сравнил болванку и результат. В результате битрейт чуть выше даже, так что хз.
Какого хуя?
А то теперь одна задача, подобрать годный видос под карточки еотовых
А то теперь одна задача, подобрать годный видос под карточки еотовых
Камень чтоль другой воткнуть или свою voodoo3 выкинуть и нормальное что-т поставить?
Это копия, сохраненная 28 июля 2021 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.