Ясное дело. Чтобы они были объёмными, там должен быть параллакс, а не две одинаковые картинки как на оппике.
Ты от природы наверное косой? Сводишь глаза чтобы две картинки раздвоились. Выходит 4 изображения. 2 средних изображения стараешься свести в одну картинку и глаза через некоторое время сфокусируются и сами будут держать это изображение
Нет к сожалению.
1280x720
Тебе сколько лет, что ты про стереограммы даже не слышал?
Проебал похоже свой пак картинок, но на борах легко ищется по cross-eyed_stereogram или просто stereogram.
>разворачиваешь картинку на пол экрана или меньше, иначе глаза от больших углов заболят
>выставляешь палец на линии между глазами и картинкой и фокусируешься на нём
>картинка на фоне начнёт двоится и получится 4 половинки
>двигаешь палец вперёд и назад, то тех пор пока средние две не совпадут
>фокусируешь взгляд на совмещённой картинке и убираешь палец
На нарисованных картинках работает крайне хуёво, так как там от руки запиленный нереалистичный параллакс. Не понимаю для чего это делают. А вот на 3д рендере и фотках со смещенным POV уже заебись, нищебродское 3д.
Чет нихуя не выходит. Я косой сам то. И картинка двойная не совпадает. Пробал 2 глазами одновременно смотреть - нихуя. Как подвинуть картинку?
Выше постом гайд. Если ты сфокусируешь взгляд строго на пальце и будешь его приближать удалять, то картинка на экране будет сходиться и расходится. Боковым зрением вылови момент, когда у тебя будет ровно три картинки, где средняя - результат совмещения. Потом аккуратно перефокусируйся с пальца на среднюю картинку.
1280x720
Еще бы у него получилось. Видео с окулуса бывают "перевернутыми" (а точнее, как раз-таки правильными): для левого глаза слева, а для правого справа. Естественно, когда мы пытаемся смотреть на это, как на перекрестную пару - ничего хорошего не получается как же я сейчас глаза ломал, пытаясь параллельно увидеть тот вебм, чтобы проверить свою догадку, и ведь получилось, когда разрешение снизил почти что до превью.
Вебмрелейтед - смотрибельный вариант >>79880. Если есть еще, дайте соус: будет время, еще принесу. Или можете сами, это легко делается ffmpeg'ом может, еще проще, чем я делаю:
1) Разделяем одно "неправильное" видео на два: ffmpeg -i video.webm -q:v 0 -vf crop=640Ширина пополам:720высота:0Для правого куска здесь тоже ширину пополам:0 RightLeft.mkv 2 раза. В webm сразу кодировать бессмысленно наверное, так как во втором пункте мы будем накладывать оверлей он сам будет накладываться, и -c copy не сработает. Если интересно, crop - вырезка куска размерами ширина:высота:начало_ширина:начало_высота.
2) Объединяем наши два mkv-шника в правильном порядке не путаем, могло и наоборот выйти, если вы называли файлы, как они были в начальном видео. ffmpeg -i Left.mkv -i Right.mkv -filter_complex "[0:v:0]pad=iw•2:ih[bg]; [bg][1:v:0]overlay=w" -q:v 0 Video.mkv . Вместо "•" должна быть звездочка, но ее может съесть Макаба если их две, но я не стал рисковать. Если интересно, что происходит здесь, гуглите ffmpeg side-by-side video , наткнетесь на этот кусок с объяснением или нет.
3) Кодируем обратно в webm. Если вы сделали первые два шага, значит, вы уже умеете это. Если нет, например, в /b/ можно найти Анимублядкий с шапкой.
Вместо -q:v 0 везде можно было использовать что-нибудь вроде -crf 1 -qmax 1, или просто указывать огромный битрейт -b:v 12M, тем более, что -q:v, вроде как, тоже предполагает использование натуральных значений. - это для того, чтобы видео не становилось еще хуже на промежуточных этапах.
И правда, видео с окулуса не предназначено для косоглазия. Есть куча подобных демок для окулуса, которые можно и с монитора посмотреть. Интересно, можно это как-то динамически подменять.
> куча подобных демок для окулуса, которые можно и с монитора посмотреть
Есть ссылки, названия, что-нибудь? Можно ведь с фрапсом при 1.9 ФПСах, на моем во всяком случае компе, сидеть, а потом уже ручками переворачивать.
Я уж подумал, что лимит подняли - а это в посте только может быть больше 6Мб файлов.
Вторая Kijyoulus от какого-то ниппонца.
Первая miku_bj от PornulusRift and Stratorvarious. Думаю нагуглить можно по никам.
Вот нашел первую попавшуюся ссыль:
https://www.reddit.com/r/oculusnsfw/comments/2nv90j/unabridged_list_of_all_dk2_demos_released_up_to/
> Но на оппике есть!
Отсутствует. Только что скачал, наложил в фотошопе одну часть на другую и три минуты выключал верхнюю, сравнивая, меняется ли что-нибудь. Отличаются только jpg-артефакты. Это две одинаковые картинки, поставленные рядом. В предыдущем стереограмм-треде тоже были такие умники, "создающие свои стереопары", из-за которых люди глаза ломали.
в принципе может быть там надо перенастроить физику под режим трассировки. х.з. может позже поэксперементирую.
>>79917
Спасибо ^^
922x576
В программах для 3D-моделирования ставятся просто две камеры, находяищиеся рядом и фокусирующиеся на одну точку. Когда-то я пытался этим заняться, но так и не осилил. В Синиме 4D даже есть специальная двойная камера, которой можно указать расстояние между глазами.
Вообще, я часто понимаю, что не могу определить, правильное ли 3D: обычно я считаю, что левый глаз именно глаз должен видеть больше слева, а правый - больше справа. Но на твоих картинках это не так, но они являются перекрестными парами я попробовал поменять местами - ничего хорошего. Сейчас делал видео из "OculusAnime's modified Fun With Alice!" >>79932 - фрагменты почти что не различаются, я долго не мог понять, нужно ли менять их местами. Поменяв и подумав еще немного, я пришел к выводу, что нужно. В изначальном варианте в самом начале было сложно сфокусироваться на Мику и задний план. Хотя, на остальную "квартиру" я нормально смотрел как в изначальном, так и в "перевернутом" варианте.
Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?
922x576
Надо будет и другие ссылки попробовать. Если бы еще в 6Мб не было так сложно запихнуть все это.
Скидывай на pomf.cat. Спасибо.
Ага, вчера попробовал теперь косоглазый.
>В программах для 3D-моделирования ставятся просто две камеры, находяищиеся рядом и фокусирующиеся на одну точку.
Ну так то да, было бы проще. К сожалению редактор MMD одновременно две камеры не поддерживает (па крайней мере до версии MikuMikuDanceE_v926).
>обычно я считаю, что левый глаз именно глаз должен видеть больше слева, а правый - больше справа.
Когда мне пришла мысль сделать в MMD стереограмму я подумал точно так. Но ничего хорошего не получилось. Тогда я поменял картинки местами и получилась стереопара. Я немного удивился что получилось именно когда наоборот, но потом решил воспринимать это как данность.
>Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?
Не знаю. Может кто из анонов знает. Я просто отмечаю пикчи буквами L и R что бы потом вспомнить с какого ракурса, левого или правого я делал скрин.
Я раньше думал, что это как монитор подключать будешь, а оказывается только приложения для ведра и смотреть.
>Есть какой-нибудь простой способ понять, какая картинка должна быть для какого глаза?
В чём сложность?
Если ты имеешь ввиду, что у тебя перекрестная стуреограмма, то - нет. Она параллельна, как раз-таки. Именно по твоим фрагментам это и видно: в зеленом круге показан "вид справа", для правого глаза. В красном Мику, которая ближе к нам, закрывает больше - ведь она ближе, и левый глаз видит уже ее, а не фон. Не знаю, как объяснить. Но это в конкретно этом примере легко определяется, так как есть объекты с сильно различающимся расстоянием до нас. Пикрелейтед тоже можно судить по рту - но такие детали не всегда можно быстро находить, особенно, если "расстояние между глазами маленькое" и картинки практически идентичны они всегда почти одинаковы, когда изображен фон, находящийся далеко.
Я имею ввиду, что где левый и правый глаз легко определить по любым двум объектам, которые на сцене чуть заслоняют друг друга. А это обычно всегда так, потому что есть объект и какой-нибудь фон.
Где-то я это уже слышал.
Можно подключать через юсб шнур прогой TrinusVR, правда тогда стереоэффекта не будет и это больше для игорей подходит.
А если надо передернуть, то есть сайтики, на которых можно скачать специальный 360-180 порн в формате видео. Открывается прогой aaa vr cinema. Тут тебе и стереоэффект и на поворот головы реагирует. Естественно телефон нужен более-менее современный с хорошим экраном и датчиком ускорения.
Можно смотреть 2 способами, это сводить глаза к носу, пикча визуально становиться меньше. и можно наоборот разводит глаза, это сложнее, но нихуя не уменьшается.
нашел http://sirds.lipetsk.ru/recomendations.php
1 метод легкий, но изображение вдавлено внутрь (тяжело смотреть с моим -1 все плывет) глаза (>).(<)
2 второй метод сложнее, но изображение наоборот выпучено. глаза (<).(>)
вот хорошая пикча для тренировке
Это просто ужасная пикча для тренировки, лол Я умею смотреть такие стереограммы - но из-за этих двух точек сфокусироваться на достаточное время на грушу, спрятанную внутри, почти нереально.
>>80366
Не "Можно смотреть двумя способами", а есть 3D-картинки, видимые с помощью издевательства над зрением, двух видов:
• Параллельные стереограммы - та, что с двумя точками выше - могут содержать в себе фигуру, которая обязана быть объемной: довольно сложно запихать в них что-то тяжелое, почти нереально накладывать хоть какую-нибудь текстуру. Для просмотра таких нужно смотреть сквозь экран, "на оптическую плюс-бесконечность" я, когда учился, представлял, что передо мной, очень далеко, находится Эверест, лол, и, когда вы получите правильное "положение глаз" (может понадобиться приближение к экрану затруднит следующий этап и/или уменьшение картинки тогда проще будет развести глаза до почти параллельного состояния, нужно будет сфокусироваться на экран, чтобы появилась четкость. Это бывает очень трудно, так как, если экран слишком близко, на него может не получиться фокусироваться в принципе - а тут еще нужно не сбить положение глаз. Мои первые два пика как раз требуют этого варианта просмотра. На первом Он сложный, нужно неслабо уменьшить картинку, по-моему, проще фокусироваться по заметным при расфокусировке вертикальным цепочкам mgg красно-розового оттенка некоторое подобие круглого человечка с тонкими руками-ногами, улыбкой, и так далее; На втором Можно подстроиться подо что угодно, например коричневую голову - парень, проезжающий на мотоцикле мимо девушки в машине.
• Перекрестные стереограммы / Стереопары. Вот тут нужно косить глаза, как нам запрещали в детском саду. Обычно процесс объясняют через "Поставьте палец между картинок, чуть ниже. Теперь фокусируйтесь на него, смотрите на задний план, чтобы две картинки образовали третью, теперь, не теряя положение глаз, снова сфокусируйтесь на экран", в интернетах много гайдов. Это гораздо проще напрячь глаза, вместо того, чтобы расслабить, когда они должны быть напряжены, у вас должно получиться. Например, держите 3-4 пик. Такие стереопары можно делать и самому, делая две фотографии, немного сдвигая фотоаппарат. Опять же, есть много гайдов. Главное, чтобы картинки были в порядке ПРАВАЯ-ЛЕВАЯ Так как наш правый глаз будет смотреть на левую половину, и ему нужна именно правая часть, и наоборот. Если они перепутаны (Или, например, изображение снято с какого-нибудь Окулуса >>79916, то нужно поменять части местами либо пытатся смотреть параллельно, но это сложно, и размер придется уменьшать до ~150:* - можно проверять, если не уверен
Алсо, если переборщить со всеми этими экспериментами со зрением, чтобы мозг решил, что все это номрально, можно добиться интересных эффектов. Я теперь, к примеру, когда передо мной неинтересный объект, смотрю "сквозь него", изучая боковым зрением окружающую среду. Не знаю, хорошо это, или плохо не развивает ли дальнозоркость такое расслабление глаз, да и даже не знаю, часто ли такое происходит или я некоторое исключение.
Это просто ужасная пикча для тренировки, лол Я умею смотреть такие стереограммы - но из-за этих двух точек сфокусироваться на достаточное время на грушу, спрятанную внутри, почти нереально.
>>80366
Не "Можно смотреть двумя способами", а есть 3D-картинки, видимые с помощью издевательства над зрением, двух видов:
• Параллельные стереограммы - та, что с двумя точками выше - могут содержать в себе фигуру, которая обязана быть объемной: довольно сложно запихать в них что-то тяжелое, почти нереально накладывать хоть какую-нибудь текстуру. Для просмотра таких нужно смотреть сквозь экран, "на оптическую плюс-бесконечность" я, когда учился, представлял, что передо мной, очень далеко, находится Эверест, лол, и, когда вы получите правильное "положение глаз" (может понадобиться приближение к экрану затруднит следующий этап и/или уменьшение картинки тогда проще будет развести глаза до почти параллельного состояния, нужно будет сфокусироваться на экран, чтобы появилась четкость. Это бывает очень трудно, так как, если экран слишком близко, на него может не получиться фокусироваться в принципе - а тут еще нужно не сбить положение глаз. Мои первые два пика как раз требуют этого варианта просмотра. На первом Он сложный, нужно неслабо уменьшить картинку, по-моему, проще фокусироваться по заметным при расфокусировке вертикальным цепочкам mgg красно-розового оттенка некоторое подобие круглого человечка с тонкими руками-ногами, улыбкой, и так далее; На втором Можно подстроиться подо что угодно, например коричневую голову - парень, проезжающий на мотоцикле мимо девушки в машине.
• Перекрестные стереограммы / Стереопары. Вот тут нужно косить глаза, как нам запрещали в детском саду. Обычно процесс объясняют через "Поставьте палец между картинок, чуть ниже. Теперь фокусируйтесь на него, смотрите на задний план, чтобы две картинки образовали третью, теперь, не теряя положение глаз, снова сфокусируйтесь на экран", в интернетах много гайдов. Это гораздо проще напрячь глаза, вместо того, чтобы расслабить, когда они должны быть напряжены, у вас должно получиться. Например, держите 3-4 пик. Такие стереопары можно делать и самому, делая две фотографии, немного сдвигая фотоаппарат. Опять же, есть много гайдов. Главное, чтобы картинки были в порядке ПРАВАЯ-ЛЕВАЯ Так как наш правый глаз будет смотреть на левую половину, и ему нужна именно правая часть, и наоборот. Если они перепутаны (Или, например, изображение снято с какого-нибудь Окулуса >>79916, то нужно поменять части местами либо пытатся смотреть параллельно, но это сложно, и размер придется уменьшать до ~150:* - можно проверять, если не уверен
Алсо, если переборщить со всеми этими экспериментами со зрением, чтобы мозг решил, что все это номрально, можно добиться интересных эффектов. Я теперь, к примеру, когда передо мной неинтересный объект, смотрю "сквозь него", изучая боковым зрением окружающую среду. Не знаю, хорошо это, или плохо не развивает ли дальнозоркость такое расслабление глаз, да и даже не знаю, часто ли такое происходит или я некоторое исключение.
1ый и 2ой пик охуенны, так всё четко видно заебись, 3ий и 4ый почему то расплываются, нету четкости но объём норм, я что то ни так делаю или так и должно быть?
> нету четкости но объём норм
Вот примерно так я и представляю, как смотрят стереопары люди с дальнозоркостью У меня единички: скосить глаза может каждый, а вот напрячь мышцы, если они не могут напрягаться - никак. Попробуй дальше от монитора, может, сесть?.. Хотя, что-то я фигню несу. Раз на экран можешь фокусироваться, то и на стереопару на том же расстоянии тоже сможешь. Попробуй еще. Иногда нужно сильно напрягать глаза. Не знаю, в общем.
Алсо вместо монитора использую телек 42" и сижу на расстоянии 2м от него (когда капчую, когда анимцо смотрю подальше на кровать ложусь) мб в этом дело?
После нескольких попыток всё таки получилось нормально сфокусироваться на гифке, но всё равно небольшая размытость присутствует на лице, в тоже время я очень четко вижу границы по краям ног
Говорю же, не знаю. Все должно получаться нормально А первые две из того поста идти сложно. Я бы просто попробовал еще когда-нибудь. А потом еще. И так, пока не получится, давая глазам время на отдых. Просто это-таки не совсем обычная для глаз операция "создать точку фокусировки зрачков на расстоянии d/2, фокусироваться на d" не знаю, как все это нормально описать. Хотя, точно также неестественно создавать точку фокусировки зрачков на плюс-бесконечности, а фокусироваться на d. В общем, НЕ-ЗНА-Ю.
1276x720
Перевернул. Хотя, фокусироваться сложно из-за большого расстояния между глазами/камерами. При параллельном просмотре начальной тоже не мог смотреть, когда камера приближается к Мику слишком сильно
Хуямп
922x576
MMD-демошки имеют минусы - модельки и звуки почти везде одинаковые. Если появляется какая-нибудь другая модель - она по-своему кривая. Да и не найти их в большом количестве. Много кто закидывает их на Mediafire и Мегу - а оттуда их через некоторое время удаляют. Скрины тоже удаляют. Пока искал, видел пару вариантов с заманчивыми скринами - но сами программы были уже потерты. Конечно, что-то я еще заснял Остается перекодировать, до чего все руки не доходят - но оно все очень похоже.
Владельцам нинтенды 3дс стоит заглянуть в этот тред.
Судя по неискабельности соуса по картинке, это все ты же, MMD-кун? Если нет, то, соответственно, запрашиваю совас.
Кстати, у меня сейчас появилась маленькая идея или нет. Когда-то я поленился разобраться в MMD-редакторе, так что не знаю, как там все работает. Хотя, раз получаются картинки, можно получить и то, что я хочу.
Смотри. Ты уже научился двигать камеру, чтобы получались хорошие стереопары в первых, как я понял, у тебя очень сильно сдвигался задний план. В правильную сторону, но сильнее, чем модель - создается впечатление, что он ближе. Можно без проблем создавать и стерео-видео со статичной камерой. Модели нужно задать какие-нибудь движения думаю, ты знаешь, как. Я-то совсем не в курсе, скачать какой-нибудь fraps не пробной версии, затем сделать видео для левого и правого глаза - и склеить их в обратной последовательности - вуаля, мы можем делать стерео-видео с MMD. Проблемы могут возникать при необходимости поворотов камеры, но можно обойтись и без них.
Ну что? Если единственная проблема - нежелание работать с ffmpeg'ом через консоль, то у меня есть маленькое приложение, которое умеет склеивать side-by-side что угодно. Тоже консольное - но ему просто даешь пару файлов и пару раз нажимаешь на 'Y'. Могу скинуть exe-шник и исходник C++. Раньше никогда не пытался передавать откомпилированные (MinGW) файлы на другие машины, так что за работу на не-Win7-X64 ручаться точно не могу. Ну, ты ведь сможешь в крайнем случае перекомпилить один файл, да?..
Сейчас еще собираюсь сделать программку с противоположным действием, которая пилит двойное видео/картинку на 2 отдельных - чтобы можно было в пару кликов пересобирать параллельные стерео-изображения от Окулуса на обычные перекрестные стереопары для нас.
Соуса нет. Это я вчера что бы бампануть тред сделал :3
>в первых, как я понял, у тебя очень сильно сдвигался задний план.
Я тогда ещё не понял почему некоторые стереопары, где персонаж в помещении, получаются лучше по фону чем другие. Потом, кода поэксперементировал понял что это зависит от параметра камеры. При редактировании камеру можно приближать/удалять двумя способами (2pic A/B). Увеличительным стеклом в правом углу (А) или изменением параметра (В). При изменением параметра лучше просматриваются (как мне кажется) мелкие детали персонажа, но больше "гуляет фон". Экспериментальным путем пришёл к выводу что оптимально (для пикч стереограмм) дефолтные 30 (+/- 5) единиц.
>Можно без проблем создавать и стерео-видео со статичной камерой.
Можно. Вот в этом посту>>79870 14519894583401.webm я делал. Но не "без проблем". Сейчас опишу камни.
В MMD-редакторе есть четыре варианта предустановки физики (3pic). Наиболее часто для простых видео используют предустановки с заранее включенной физикой. Это удобней и быстрее. Хоть при этом иногда бывает что волосы (ну или части одежды) проваливаются сквозь модель. (Например на 4м пике при включенной физике правого уха бы видно не было, а волосы проходили бы сквозь плечо персонажа внутрь). Но это всё мелочи по сравнению с тем что в редакторе MMD только одна камера. Можно конечно сначала установить её для одного глаза, и снять видео для него, а потом переустановить камеру и снять видео уже для другого глаза. И смонтировать полученные два видео в стерео в любой монтажке. На прикол в том что редактор MMD просчитывает физику заного при каждом воспроизведении (при предустановке включенной физики). И поэтому при первой съёмке для одного глаза волосы / ленточки / юбочки будут двигаться по одному. А при повторной съёмке для другого глаза уже несколько иначе. В итоге в смонтированном видео на их месте будет не стерео изображение а пятно той или иной резкости. Однако, конечно. предустановку включенной физики можно отключить, и прописать физику вручную. Но это довольно долго так как придётся делать это для каждой пряди волос. И для подпрыгивания грудей тоже. Если этого не сделать то на видео получиться не супер 3D stereo hentai video а потрахушки манекенов из магазина одежды :3.
Хотя конечно можно взять модель с короткой стрижкой. Чем короче волосы у модели тем меньше разночтений в их физике при воспроизведении. Или, как вариант, попробовать взять модель где "шерстистость" прически прописана ещё и в дополнительных настройках. Типа модели Kaat от J&J Edit. Теоретически с этим вариантом, при наличии времени, наверное можно поэксперементировать.
>скачать какой-нибудь fraps
Если честно я не понял зачем скачивать фрапс. В MMD-редакторе есть возможность вывода видео в том числе и несжатый AVI. А монтажить можно в том же вегасе.
Для захвата видео когда есть необходимость юзаю HyperCam3. Мне больше нравиться чем фрапс. Хотя раньше когда то фрапсом пользовался тоже.
>Если единственная проблема - нежелание работать с ffmpeg'ом через консоль
Если будет необходимость то, думаю, ffmpeg освоить смогу. Тут большая трудность - дефицит времени. А так я привык резать Дабом, монтажить Вегасом и кодить Симплой :3 А когда нужно перекодить в вебм то юзаю АниВидеоКонвертор. Хоть в Анимублядском иногда и ругаюся :3
Соуса нет. Это я вчера что бы бампануть тред сделал :3
>в первых, как я понял, у тебя очень сильно сдвигался задний план.
Я тогда ещё не понял почему некоторые стереопары, где персонаж в помещении, получаются лучше по фону чем другие. Потом, кода поэксперементировал понял что это зависит от параметра камеры. При редактировании камеру можно приближать/удалять двумя способами (2pic A/B). Увеличительным стеклом в правом углу (А) или изменением параметра (В). При изменением параметра лучше просматриваются (как мне кажется) мелкие детали персонажа, но больше "гуляет фон". Экспериментальным путем пришёл к выводу что оптимально (для пикч стереограмм) дефолтные 30 (+/- 5) единиц.
>Можно без проблем создавать и стерео-видео со статичной камерой.
Можно. Вот в этом посту>>79870 14519894583401.webm я делал. Но не "без проблем". Сейчас опишу камни.
В MMD-редакторе есть четыре варианта предустановки физики (3pic). Наиболее часто для простых видео используют предустановки с заранее включенной физикой. Это удобней и быстрее. Хоть при этом иногда бывает что волосы (ну или части одежды) проваливаются сквозь модель. (Например на 4м пике при включенной физике правого уха бы видно не было, а волосы проходили бы сквозь плечо персонажа внутрь). Но это всё мелочи по сравнению с тем что в редакторе MMD только одна камера. Можно конечно сначала установить её для одного глаза, и снять видео для него, а потом переустановить камеру и снять видео уже для другого глаза. И смонтировать полученные два видео в стерео в любой монтажке. На прикол в том что редактор MMD просчитывает физику заного при каждом воспроизведении (при предустановке включенной физики). И поэтому при первой съёмке для одного глаза волосы / ленточки / юбочки будут двигаться по одному. А при повторной съёмке для другого глаза уже несколько иначе. В итоге в смонтированном видео на их месте будет не стерео изображение а пятно той или иной резкости. Однако, конечно. предустановку включенной физики можно отключить, и прописать физику вручную. Но это довольно долго так как придётся делать это для каждой пряди волос. И для подпрыгивания грудей тоже. Если этого не сделать то на видео получиться не супер 3D stereo hentai video а потрахушки манекенов из магазина одежды :3.
Хотя конечно можно взять модель с короткой стрижкой. Чем короче волосы у модели тем меньше разночтений в их физике при воспроизведении. Или, как вариант, попробовать взять модель где "шерстистость" прически прописана ещё и в дополнительных настройках. Типа модели Kaat от J&J Edit. Теоретически с этим вариантом, при наличии времени, наверное можно поэксперементировать.
>скачать какой-нибудь fraps
Если честно я не понял зачем скачивать фрапс. В MMD-редакторе есть возможность вывода видео в том числе и несжатый AVI. А монтажить можно в том же вегасе.
Для захвата видео когда есть необходимость юзаю HyperCam3. Мне больше нравиться чем фрапс. Хотя раньше когда то фрапсом пользовался тоже.
>Если единственная проблема - нежелание работать с ffmpeg'ом через консоль
Если будет необходимость то, думаю, ffmpeg освоить смогу. Тут большая трудность - дефицит времени. А так я привык резать Дабом, монтажить Вегасом и кодить Симплой :3 А когда нужно перекодить в вебм то юзаю АниВидеоКонвертор. Хоть в Анимублядском иногда и ругаюся :3
анон, а тебя случайно не nvideo? есть же опция 3D side-by-side.
если у тя nvideo и не заработает, есть эмулятор
http://kostasoft.com/index.php?mod=pages&page=clone
У меня эта функция не активна. Можешь запилить небольшую вебм что бы посмотреть что и как она делает?
сорян, но у меня radeon сгоревшая, лол а пикча с вики http://www6.atwiki.jp/vpvpwiki/pages/275.html#id_0898b786
я где то читал, что её можно включить на любой nvideo карте.>>82158
но сайт оффлайн смотри через http://web.archive.org/web/20160211063330/http://kostasoft.com/index.php?mod=pages&page=clone
и нашел файл http://rghost.ru/6WS42B48r
кароче, те чет надо намутить с дровами, чтоб была функция 3D и тогда можно будет экспортировать вертикальную стерео пару.
побывал, еще с VR версией, но без шлема не заводится. какой то эмуль пытался подкинуть, дохлый номер
https://www.youtube.com/watch?v=tcsa91GAjK4
Всегда умел косить глаза, но через минут 10 уже начинают болеть. А ты час косишь, ебанулся чтоль?
блять, не знаю, ты жив еще или нет. Но первые две картинки осилил без проблем. Да и вообще с давнего детства какого-то хуя научился ставить глаза параллельно, и теперь всегда, когда думаю, так расслабляю их. Все знакомые думают, что я умею управлять косоглазием и ссутся, когда я так делаю. Иногда ради лулзов стебусь над людьми, которые долго смотрят на меня, и раздвигаю глаза. Они сразу отворачиваются и искоса поглядывают на меня, как на ебанутого. Однажды маман после такого случая вообще захотела меня в больницу отдать, думая, что я больной. Но зато дрочу на все эти стереограммы и стереопары без малейших проблем
1151x720
>>105306
Собственно, да, оказывается, я жив. Но картинок для параллельного просмотра у меня практически нет.
Не то, чтобы прошедшее время я провел с большим успехам по стереопарам. Как решил, что тред смыло, к хентайной теме вообще не возвращался. В целом, 3D-тема меня все так же интересует. Все еще делаю периодически стереопары на телефон, купил на Али 3Д-камеру-насадку на андроид/ПК, с Nvidia 3D-Vision'ом разобрался, как видеокарту обновил... Но хентай-контента у меня пока нет. Как оказалось, старые MMD-шные поделки для Окулуса я не удалял, но это так себе контент, конечно. Я уже проверил, что 3D-Vision не хочет работать с Custom Maid 3D 2, и в планах у меня проверить с Illusion'ом. Могу попробовать ответить на простые вопросы, тред буду проверять раз в несколько дней.
921x576
И, кстати, да, спасибо, MMD-кун, что не дал треду утонуть...
Хз спрашивали или нет, но подойдут ли эти шебмы для просмотра на cardboard? Или нужно поменять картинки местами
На весь экран могу лол, но я на такое не дрочу особо
1150x720
> подойдут ли эти шебмы для просмотра на cardboard
Нет. Ты прав, нужно просто поменять картинки местами. Для этого можно использовать все тот же ffmpeg. А конкретно:
ffmpeg -i Stereoscopic.webm -vf stereo3d=sbsr:sbsl -c:a copy -c:v libx264 -qmin:v 22 -crf:v 25 -qmax:v 28 Cardboard.mp4
Пути к файлам можно не прописывать, а просто перетащить вебмы в консоль исходный после "-i", а в качестве файла вывода перетащить тот же исходник, только поменять ему имя и разрешение на mp4
Точно так же можно поступать со всеми картинками, если интересно. Но, чтобы такое быстрее делать, лучше какой-нибудь скрипт использовать.
А еще можно найти сами MMD-шные поделки для Окулуса (Год назад их было довольно мало, и многие терлись; откуда именно качал - не помню) и запускать их с выводом на телефон каким-нибудь TrinusVR'ом. Может, даже головой крутить можно будет нормально (на всех моих видео я использую мышь, но она позволяет только вправо-влево вращать камеру, не вверх-вниз; контроллер пробовал подключать (не XBox'овский), не помогло)
1150x720
> ffmpeg -i Stereoscopic.webm -vf stereo3d=sbsr:sbsl -c:a copy -c:v libx264 -qmin:v 22 -crf:v 25 -qmax:v 28 Cardboard.mp4
Только "mkv" вместо "mp4" в конце. Либо "-c:a aac" вместо "-c:a copy", либо добавить "-strict -2" после "-c:a copy".
Объяснение: у меня в вебмках звук в кодеке Opus, а его нельзя по-простому запихнуть в файл .mp4. Зато можно в .mkv (первый вариант), или можно в .mp4 запихнуть aac кодек (но, возможно, к нему тоже нужно будет приписать следующий вариант, зависит от версии кодеков), либо включить эксперементальные возможности.
Да сидел, хуйню эту нашел. НЕ думал что есть фапконтент на эту тему. Склеил, значит, из двух картинок на которые тогда дрочил оп пик и запостил. Уж не предпологал, что хоть кто-то будет этим интересоваться. Тем более год спустя. Вот кстати оригинал оп пика пятнадцатого года
Хоть бы годного че попостили. А то одна хуйня низкополигональная в треде.
Продолжай держать нас в курсе своих ощущений.
Иметь в треде такого отзывчевого анона как ты - это уже очень хорошо, так как не каждый тред в /h/ может похвастаться наличием такого уникального анончика. А уж если ты будешь периодически выходить на связь, радость и счастье от твоего появления не будет знать границ. Особенно если кроме своих высеров ты ещё и контента закапчуешь.
типа глубина и параллакс
Оп жив, наблюдаю, если что, еще наклепаю хуйни без параллакса и вброшу. БУдем жить
1280x360, 0:24
>>108014
ММД-кун, может, ты знаешь, можно ли в настройках чего подкрутить, относящееся к Nvidia 3DVision? Я только на выводе проекта галочку нашел, но, вдруг, еще где есть. Например, чтобы дистанцию между глазами ту же установить.
Рендерить с галочкой "Left half(for Discover)" - выводит только анаглифное видео, соответственно. Отключать просмотр в 3D-режиме во время рендеринга тоже пробовал - получается просто треш.
Костыль из (>>82158) пробовал, эмулятор не работает, видимо, под Десяткой. Не находятся драйвера. Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки, ибо она так и стоит на втором винчестере может, работает еще. Туда эмулятор должен встать, думаю.
Больше у меня идей пока нет, но буду рад послушать предложения.
1150x720, 0:44
> Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки
Провал. Не понимаю, что не так.
Если под Десяткой вообще не появляется нового устройства при запуске второго батника, то под Семеркой он у меня появляется с восклицательным знаком. И в этом случае все так же не получается выбрать другой стерео-режим. Ладно бы еще просто писал, что не видит этого USB-устройства, так нет, в одном случае он пишет, что не установлено драйверов 3D Vision USB, или что-то такое, и линк на nvidia.com/downloads с авто-выбранными пунктами "3DVision"-"Full 3DVision CD for GeForce"-"Win7x64". Самая пушка: При нажатии кнопки "Поиск драйверов", попадаешь на страницу "Драйвера 3D Vision уже включены в основной драйвер для видеокарт GeForce, и отдельно больше не предоставляется". У меня пичот от такого отношения. Форумы с настройкой драйверов 3D Vision есть с 2009 года, и проблемы, на которые тогда отвечали "Поменяй в реестре значение" в качестве решения, сейчас можно отвечать только так же, никаких настроек не было добавлено.
Максимально я приблизился к достижению цели, когда подменил драйвер монитора на драйвер какого-то из проекторов Acer, как показывалось на каком-то видео. Поначалу я был удивлен, что можно безболезненно подменить драйвер, и в конце, когда по дисплею пошли чересстрочные артефакты, за которыми почти ничего не видно, я убедился, что так делать в общем случае нельзя. Даже откат драйвера не помог, только установка драйвера для своего монитора. Ну так вот, пока мой монитор был проектором, окно настройки типа отображения 3D Vision поменяло формат, но я снова уткнулся в то, что у меня "нет драйверов". Хотел потом начисто переустановить драйвер, но... У меня, вроде как, диск посыпался. Пара программ сказали, что у них проблемы с обновлением, 7zip при распаковке драйверов от Нвидии сказал, чтобы я запустил chkdsk,
и я вернулся обратно в Десятку. Вроде, SMART нормальный, но chkdsk что-то поправил; может,
потом еще попробую
Но, так, или иначе, я все еще могу рендерить анаглифные видео, если кому надо... Мало-ли..~
1150x720, 0:44
> Сейчас еще попробую переставить, но не думаю, что поможет. Следующим шагом, видимо, будет возрождение Семерки
Провал. Не понимаю, что не так.
Если под Десяткой вообще не появляется нового устройства при запуске второго батника, то под Семеркой он у меня появляется с восклицательным знаком. И в этом случае все так же не получается выбрать другой стерео-режим. Ладно бы еще просто писал, что не видит этого USB-устройства, так нет, в одном случае он пишет, что не установлено драйверов 3D Vision USB, или что-то такое, и линк на nvidia.com/downloads с авто-выбранными пунктами "3DVision"-"Full 3DVision CD for GeForce"-"Win7x64". Самая пушка: При нажатии кнопки "Поиск драйверов", попадаешь на страницу "Драйвера 3D Vision уже включены в основной драйвер для видеокарт GeForce, и отдельно больше не предоставляется". У меня пичот от такого отношения. Форумы с настройкой драйверов 3D Vision есть с 2009 года, и проблемы, на которые тогда отвечали "Поменяй в реестре значение" в качестве решения, сейчас можно отвечать только так же, никаких настроек не было добавлено.
Максимально я приблизился к достижению цели, когда подменил драйвер монитора на драйвер какого-то из проекторов Acer, как показывалось на каком-то видео. Поначалу я был удивлен, что можно безболезненно подменить драйвер, и в конце, когда по дисплею пошли чересстрочные артефакты, за которыми почти ничего не видно, я убедился, что так делать в общем случае нельзя. Даже откат драйвера не помог, только установка драйвера для своего монитора. Ну так вот, пока мой монитор был проектором, окно настройки типа отображения 3D Vision поменяло формат, но я снова уткнулся в то, что у меня "нет драйверов". Хотел потом начисто переустановить драйвер, но... У меня, вроде как, диск посыпался. Пара программ сказали, что у них проблемы с обновлением, 7zip при распаковке драйверов от Нвидии сказал, чтобы я запустил chkdsk,
и я вернулся обратно в Десятку. Вроде, SMART нормальный, но chkdsk что-то поправил; может,
потом еще попробую
Но, так, или иначе, я все еще могу рендерить анаглифные видео, если кому надо... Мало-ли..~
Мда, сеги вам, бомжи
> Ебать тут тред тухлый
Как и вся доска же.
> в хентаче на фочане такие то картинки охуевшие
Сходил, посмотрел, да, там народ время зря не тратит. Полтора года назад там было примерно то же, что на бурах по тегу stereoscopic. За это время у них в треде пошла движуха, нашлись умельцы самостоятельно пилить стереокартинки, а у нас раз в месяц тред бампался безуспешно и на этом спасибо еще раз.
> а тут окулюс параша
Это единственное, чем я могу поддержать тред. И это видео вместо картинок. Если во мне было хоть что-то от художника, я бы попробовал пикрелейтед технику, и, может, я и попробую, но я совсем никак не отношусь к искусству.
> с хуёвой графикой
И делать модельки / создавать приложения - я тоже не умею пока.
А вот открыть скачанную джва года назад Окулус-поделку, заснять процесс, поменять глаза местами и закодировать результат в webm/h264 - это я могу. Этим я и занимаюсь пусть и слишком редко.
> Мда, сеги вам
Твое решение, но ящитаю, что тему нужно поддерживать хоть как-то, чтобы была хотя бы вероятность, что найдется энтузиаст, который внесет что-то новое в тред.
Привет. ^^ Я читал конечно тот пост, но у меня не тот виндовс. Да и геморроя с установкой эмулятора не хотелось. Поэтому я не пробовал.
Я думаю что если я буду ещё делать стерео видео, то просто буду снимать камерой с двух ракурсов, с отключенной физикой. Что бы не было рандома в волосах. А так Видео-кун>>108065 вот хорошо всё расписал.
Я читал и восхищался его энтузиазмом. Сам я бы и половины от того что он попробовал сделать не сделал бы xD.
>>108089
Да,да.
> А вот у марсиан...
То ли ты пациент дедушек Крылова, Михалкова, то ли просто троллейбур обыкновенный. И, знаешь что я думаю, в тухлые треды такие как ты за питанием не ходят. Так что с тредиком всё ок ящитаю.
Кстати, я что то не вижу что бы в шапке треда было написано что то о давании пососать фочангу или кому то ещё.
Хотя вот тебе наверное и можно было бы дать пососать, но только если ты няшный.
У нас тут и так всё забиесь. А кто с этим не согласен тот нацптеродактиль.
В общем, держи нас в курсе. Твоё мнение и т.д.
>>108099
Не корми ты его . ^^ Он слишком жирный.
> но у меня не тот виндовс.
В смысле, не тот? Нет, я про сами настройки MMD спрашивал, я же только поверхностно по ним пробежался, а так вообще не в теме.
> Да и геморроя с установкой эмулятора не хотелось.
Так у тебя же не Нвидия. Там-то, смотри, в чем "проблема": в настройках Нвидии можно включить стереоскопический режим, но, не имея спец-оборудования, например, "пирамидки" (в двух словах - ИК-передатчик, говорит очкам, какой глаз сейчас идет в 120фпс-ном видео, если я правильно понимаю) - то можно включить только анаглифный режим отображения. В этом случае, на экран будет выводиться 3D сразу разделенное на синий и красный цвета. Shadowplay в этом случае будет тоже сразу снимать анаглиф (в то время, как его скриншотер сохранять стереопары) - путь тот же Fraps и умеет сохранять side-by-side видео только фрапсом де-факто нельзя снимать 60фпс, но это хоть что-то. "Эмулятор" же должен эмулировать эту самую пирамидку: тогда можно было бы выбрать нормальный 3D Vision формат в настройках, и MMD бы выводил вместо анаглифа 120фпс-ное видео, где каждый следующий кадр предназначен для другого глаза - а это уже "чистый" стереоформат, из которого можно получить любой другой тем же ffmpeg'ом. Ну, это как я вижу картину. Может, дело обстоит и не так...
> А так Видео-кун
Это я и есть ^^.
Сейчас я попробовал хоть и не собирался >>108099, и получил пикрелейтед в качестве теста. Завтра попробую на 2Д-картинке, попроще какой-нибудь. Времени уходит много, а получается фигня, но это немного интересно. Особенно до того момента, как тебе нужно восстановить кусок травы. Или зеркало. Не дружу я с Фотошопом, короче, на уровне выше среднего. Может, еще попробую в ГИМПе сделать то же самое, если это особенность ФШ, что он невероятно размывает слой при его деформации.
Кстати, в попытках найти гайд в большем качестве, нашел только первую половину, пик2.
Ну и чтобы протестить 40Мб точнее 21+ лимит, вебм3
У меня самые обычные, дефолтные настройки. Какие установлены с самого начала. А там уже, в зависимости от сцены, я их настраиваю конкретно под сцену. Там это просто. Сейчас ещё часто физику отключаю что бы настраивать движение волос и частей одежды (в тех сценах где она есть) так что бы волосы или части одежды не проваливались в модель. Ну если я правильно понял о чём ты.
Не у меня не Нвидия. Но я так то не собирался делать стереоскопические фильмы. Если конечно, ради эксперимента или для скилла решу сделать, то сделаю как тут>>79870
съёмкой с разных позиций. Плюс я вижу в том, что в таком случае не приходится выворачивать объектив камеры на большое удаление. И модели смотрятся менее растянутыми в пространстве. Другими словами более естественно. Да и выставлять 60fps не обязательно. Можно обойтись 30-ю.
Чёрно белая пикча у тебя хорошо получилась. Ну кроме травы и рамок надписей.
Похожий гайд по фотошопу я видел, когда комрады из той конфы где я время от времени обитаю, обсуждали анимирование статики наподобе как она анимируется в виртуал вайфу. Там да, виден был небольшой блендинг при сдвигании слоёв. Хотя сам я с подобным не сталкивался, так как использую фотошоп в основном для цветокора, работы с текстом и работе с масками (когда, например, нужно персонажей из одного аниме поместить в другое аниме. Тут фотошоп (у меня CS4) работает вполне корректно.
Кстати, на одном из форумов увидел стереопару с полосками по бокам, для лучшей концентрации зрения. Решил потестить без полосок и с полосками.
Самое забавное, что я не интересуюсь членодевками
Ты просто завидуешь, потому что у тебя нет очков.
>форчан
Ага, сейчас бы на анально модерируемую доску, где даже лолей запрещено постить.
>поменять глаза местами
Нахуя? Картинка для левого глаза должна быть слева, а для правого - справа. Алсо, сагаю говноедский тред, так как бампа он не достоин.
> Присоединяюсь к сажированию. Хуета какая-то.
Какие же вы идиоты, пишите в гугле "как смотреть стерео картинки" по первой или почти первой же ссылке короткая и годная статья, там все объясняют нормально, а не так коряво как аноны, после прочтения вообще без усилий получается эти картинки смотреть и двойные как в этом треде и текстурные
Кончил с косоглазием. Брат жив.
Ахуеть
Скоро будем компилить хентай в 3д ВР за день.
ты пидр охуел, параллельно смотри, не коси.
И это не сеть, это стереограммы из тех примеров, которые я готовлю для нее. Вчера запускал на 4 часа, мне понравился результат, даже картинку с 2 телами распознало, но материалов пока что только 70 картинок. Рехультат грязноват, но он есть, и пара примеров мне понравилось, еще не до той степени, чтобы вручную за ним доделать, но направление верное. У карт потиху вырезаю черные точки, артефакты. Отказался от прорисовки задников. Работаю, может это займет пару месяцев- сделать около 500-600 примеров. Потом уже за пару дней натренировать получится. Опыт с фейссвапом есть, так что все будет чики-пуки, ждите.
ПАЦАНЫ, У МЕНЯ ПОЛУЧИЛОСЬ. КАК ЖЕ АХУЕННО БЛЯ
2000x1440, 0:05
рад стараться, если это не ирония.
Эти работы еще плохие, вижу много артефактов типа поломанной пизды. Сейчас от них потиху избавляюсь и делаю новые. Вот вчера с машины запилил видос.
Вообще нулевой эффект, хочешь я твои же картинки вручную запилю, и ты увидишь ничтожность своей сети?
Да, как будто я не знаю, что она плохая.
Хочешь я запилю на днях какое-нибудь хентайное ОВА на 20 минут, и ты поймешь, что вручную тебе это делать минимум пару лет? Лол, вот уже не думал, что буду сратmся в /h.
а теперь галимые отмазки с моей стороны.
Кароче, у проги цель другая- обрабатывать множество изображений, и она еще в стадии глубокой беты, те фото с 70 кадров для обучения, вручную я могу въебать тоже дай боже, но вот видео кодировать- увольте.
Вот твоя карта высот,(глубин)- сравни с машинной, конечно она не такая резкая. Даже узнаю в обученной программе свою черту- я бы не запиливал крылья все белым, ближним фоном, я бы скорее их сдела как и прога- серединой картинки, а вот перо снизу- белым, собсна как она и сделала. Даже в ручной обработке есть малые дефекты, а вот прога четче обрабатывала границы. Еще у аниме есть такое свойство, как равномерная заливка кожи без теневых переходов, так что важны становятся только контуры, а не внутренняя поверхность, т.е. мы все равно не увидим разницы в аниме а не в арте.
И еще маленькая деталь- сеть училась на тогда, да и сейчас, в основном, на девушках без крыльев, так что логично, что она их не опознала, а сдалала фоном.
Продолжаю работать, вот недавно освоил вырезание карты из других артов, запили еще кучу картинок, вот результат на 6 часов обучения на 130 картинках, часть из которых не была вручную допилена, и значительно отличалась от первой ручной моей работы, так что тоже сильно не пинай.
Вобщем все решается тупо
1. созданием большой базы примеров,
2. прога сможет создавать карты глубин со скоростью 1 в секунду
3. ...
Профит
Ну, типа даже если прога используется для артов, она может делать набросок карты высот и делать это быстро, и потом дорабатывать где надо берном. А не как я сейчас- по 5 минут на 1 штуку.
(Да, кстате, что за инструменты юзаешь для создания стерео, мало ли я чего не знаю? Я юзаю DMAG 4, поздние версии без графического интерфейса, прога, которая делает расчет карты высот по цветам, если ей дать набросок карты высот, очень и очень хорошая прога, упрощает жизнь. Если занимаешься стерео, то попробуй, а может сюда покидаешь картинки с картой высот, поможешь мну немного, а то заебался не спать по ночам.)
> Я юзаю DMAG 4
Да уж посмотрел я эту софтину, думал закидываешь картинку и она сама всё делает, так вообще легче вручную карту рисовать.
https://drive.google.com/file/d/1BVx8TvAb3gvwvxYfUBAgeqgH7S-6sqjB/view?usp=sharing
Вот, я соврал, тока 118 наделал. Из них первая часть, где черный фон на всем- сделана в фотошопе +ДМАГ. Дела как для себя, из них и так норм получается делать стереограмы. Там, где фон не сплошной черный- вчера выдранные из картинок, найденных на бору и еще одном японском сайте по запросы в гугле. Не все, но там они довольно сомнительного качества, типа перепады по высоте, карты сложно выдираются, поэтому лучше делать самому (про это все щас напишу).
>>131852
Так, я вообще не программист ни разу, мне каким-то чудом удалось найти и запустить (раза с 20-го, я долго и упорно компилировал из старых версий библиотек нужные) библиотеку pix2pix 1024, модификацию стандартной pix2pix , которая работает только с 256. Я хочу, чтобы в конце она стала такое вот генерировать качество, или примерно такое хотя бы, такого она не выдаст наверняка. Работает она медленнее, чем пих2пих в 16 раз соответсвенно, 1 тик=1 картинка=1 секунда. Обучаться ей надо очень долго, насколько я знаю из своего опыта работы с прогами типа фейссвап, там можно было днями компилить лица в разрешении 128 на 128. Лица одного человека карл. Но тут вроде пих2пих идеально подходит для генерации из чего-то разнородного однородной карты, типа гугл карты из фото со спутника, или котиков из всего, или тех же фасадов из их стандартного примера. Вопрос только в качестве. И те пробы на 4 и 6 часов на 70 и 120 картинок- это просто капля в море, и я знаю, что пока не сделаю картинок 600 и не на треню свой счетчик электрический на пару сотен киловатто-часов, можно даже не думать о качестве. А потом я еще буду из старых картинок, где нет фона делать картинки с фоном, чтобы алгоритм лучше выделял фон от девок, но до этого еще не скоро дойдет, хоть процесс и не сложный, но я его отложу на конец
Ну и раз уж я выкладываю карты, я делаю стерекартинки в проге под названием 3D combine. У нее триал 15 дней, лечится созданием нового юзера в винде, старые прописки в реестре хер найдешь. Там есть много режимов работы, вот я использую 2d to 3d Generic, как самый не херящий качество картинки. Также эта прога может работать с видео, очень и очень через жопу, своим алгоритмом прощитывая ключевые кадры, и потом якобы ты должен их брать и делать только ключевые кадры, а она сама подхватит. На деле это не работает, и вот тут должна прийти нейросеть, которая сгенерирует все кадры, а прога будет подхватывать их как ключевые. Я даже компилил уже там, вот эта девка с плоскими сиськами оттуда. Артефакты может появились от того, что перегонял видео в онлайн конвертере в вебм. Компили кроме этого один хентай, там было может более норм, но я его удолил.
Так, что еще есть- для вырезки из стереопары Triaxes StereoTracer. Кряка нету тоже. Демка выводит карту глубин с неубираемой ватермаркой, но это обходится деланьем скриншота, а не экспорта. Ограничение- высота твоего монитора. При желании можно из двух скриншотов вырезать карты из картинок даже более 2000 пикселей в высоту, но это не нужно, имхо.
И еще о прогах- есть некая грузинская студия, которая за 300 бачей продает прогу для всех целей, крякнутой ее нету. Но она в итоге по функционалу будет всем тем же самым-автоматически продолжать анимацию по ключевым кадрам, вырезает карты высот... чем я тут занимаюсь с помощью вышеназванных и "моей" нейросети.
И еще- я перелопатил много чего в гугле и яндексе, даже в дак дак го, чтобы найти нужные программы, и почти везде был шлак типа для вин 95 программы на заре компьютерных технологий, лол. Создание зашифрованных стереограмм. Еще был всплеск интереса к нейросетям после выхода Аватара Кемерона. Рассматривал какую-то библиотеку на питоне, которая должна была сразу делать стереопару из картинки, обучаясь на множестве существующих стереофьмов. Якобы это возможно, но ни одного ролика от разраба не нашел, и установить все зависимости от бибилиотеки уже невозможно- репозитории закрыты. Автор тоже умер как 2 года. Да и я сомневаюсь, что такое возможно- сети придется понять все сложности физического мира, изображаемого во всех фильмах. Может по некоторым кадрам из одного фильма она смогла бы доделывать остальные кадры, вот только зачем, если они и так существоввали в виде стереопары? А в любом другом кино с другими героями, предметами и окружением она будет выдавать дичь. и обучать ее всем фильмам займет бесконечное время.
Также я шерстил библиотеки научных проектов в институтах, где учат ИИ опознавать дорожное движение. Даже 3д мультики и прочие типа натюрмортов, но там не такие стереопары и карты, на которых сможет научится моя сеть опознавать аниме, лол. Вобщем их выборки не для нас.
Но. Все равно, я считаю, что задача выполнима, и аниме более менее однородно, учитывая различия в цвете волос, фигур и прочих конечностей, уже текущий прогресс и его направление меня удовлетворяет.
https://drive.google.com/file/d/1BVx8TvAb3gvwvxYfUBAgeqgH7S-6sqjB/view?usp=sharing
Вот, я соврал, тока 118 наделал. Из них первая часть, где черный фон на всем- сделана в фотошопе +ДМАГ. Дела как для себя, из них и так норм получается делать стереограмы. Там, где фон не сплошной черный- вчера выдранные из картинок, найденных на бору и еще одном японском сайте по запросы в гугле. Не все, но там они довольно сомнительного качества, типа перепады по высоте, карты сложно выдираются, поэтому лучше делать самому (про это все щас напишу).
>>131852
Так, я вообще не программист ни разу, мне каким-то чудом удалось найти и запустить (раза с 20-го, я долго и упорно компилировал из старых версий библиотек нужные) библиотеку pix2pix 1024, модификацию стандартной pix2pix , которая работает только с 256. Я хочу, чтобы в конце она стала такое вот генерировать качество, или примерно такое хотя бы, такого она не выдаст наверняка. Работает она медленнее, чем пих2пих в 16 раз соответсвенно, 1 тик=1 картинка=1 секунда. Обучаться ей надо очень долго, насколько я знаю из своего опыта работы с прогами типа фейссвап, там можно было днями компилить лица в разрешении 128 на 128. Лица одного человека карл. Но тут вроде пих2пих идеально подходит для генерации из чего-то разнородного однородной карты, типа гугл карты из фото со спутника, или котиков из всего, или тех же фасадов из их стандартного примера. Вопрос только в качестве. И те пробы на 4 и 6 часов на 70 и 120 картинок- это просто капля в море, и я знаю, что пока не сделаю картинок 600 и не на треню свой счетчик электрический на пару сотен киловатто-часов, можно даже не думать о качестве. А потом я еще буду из старых картинок, где нет фона делать картинки с фоном, чтобы алгоритм лучше выделял фон от девок, но до этого еще не скоро дойдет, хоть процесс и не сложный, но я его отложу на конец
Ну и раз уж я выкладываю карты, я делаю стерекартинки в проге под названием 3D combine. У нее триал 15 дней, лечится созданием нового юзера в винде, старые прописки в реестре хер найдешь. Там есть много режимов работы, вот я использую 2d to 3d Generic, как самый не херящий качество картинки. Также эта прога может работать с видео, очень и очень через жопу, своим алгоритмом прощитывая ключевые кадры, и потом якобы ты должен их брать и делать только ключевые кадры, а она сама подхватит. На деле это не работает, и вот тут должна прийти нейросеть, которая сгенерирует все кадры, а прога будет подхватывать их как ключевые. Я даже компилил уже там, вот эта девка с плоскими сиськами оттуда. Артефакты может появились от того, что перегонял видео в онлайн конвертере в вебм. Компили кроме этого один хентай, там было может более норм, но я его удолил.
Так, что еще есть- для вырезки из стереопары Triaxes StereoTracer. Кряка нету тоже. Демка выводит карту глубин с неубираемой ватермаркой, но это обходится деланьем скриншота, а не экспорта. Ограничение- высота твоего монитора. При желании можно из двух скриншотов вырезать карты из картинок даже более 2000 пикселей в высоту, но это не нужно, имхо.
И еще о прогах- есть некая грузинская студия, которая за 300 бачей продает прогу для всех целей, крякнутой ее нету. Но она в итоге по функционалу будет всем тем же самым-автоматически продолжать анимацию по ключевым кадрам, вырезает карты высот... чем я тут занимаюсь с помощью вышеназванных и "моей" нейросети.
И еще- я перелопатил много чего в гугле и яндексе, даже в дак дак го, чтобы найти нужные программы, и почти везде был шлак типа для вин 95 программы на заре компьютерных технологий, лол. Создание зашифрованных стереограмм. Еще был всплеск интереса к нейросетям после выхода Аватара Кемерона. Рассматривал какую-то библиотеку на питоне, которая должна была сразу делать стереопару из картинки, обучаясь на множестве существующих стереофьмов. Якобы это возможно, но ни одного ролика от разраба не нашел, и установить все зависимости от бибилиотеки уже невозможно- репозитории закрыты. Автор тоже умер как 2 года. Да и я сомневаюсь, что такое возможно- сети придется понять все сложности физического мира, изображаемого во всех фильмах. Может по некоторым кадрам из одного фильма она смогла бы доделывать остальные кадры, вот только зачем, если они и так существоввали в виде стереопары? А в любом другом кино с другими героями, предметами и окружением она будет выдавать дичь. и обучать ее всем фильмам займет бесконечное время.
Также я шерстил библиотеки научных проектов в институтах, где учат ИИ опознавать дорожное движение. Даже 3д мультики и прочие типа натюрмортов, но там не такие стереопары и карты, на которых сможет научится моя сеть опознавать аниме, лол. Вобщем их выборки не для нас.
Но. Все равно, я считаю, что задача выполнима, и аниме более менее однородно, учитывая различия в цвете волос, фигур и прочих конечностей, уже текущий прогресс и его направление меня удовлетворяет.
Не скажи, в ГИМП + ДМАГ я делаю 1 простую картинку за 3 минуты + вычисления 3 минуты. Не устаешь, и это важно для меня, не програмиста. Беру числом.
В настройках можно ставить детерминант 30-60 а не 90, и итераций 1000-3000, тогда карта будет не такой четкой, но она и не должна быть четкой для аниме.
Вот еще что, про нейросеть- я заметил, что она стала халявить, еще с первого раза. Иногда я встречал картинки, у которых карта глубины прорисована только по краю. Это все равно создает иллюзию объема, ведь если смещен один сплошной цвет, ты не заметишь перехода высоты. Так вот, мне кажется, что сеть стала делать также. Но откуда она знает, что я увижу (что я хочу увидеть, и мне все равно, сплошное покрытие там в карте или только край обведен) после конвертации карты глубины и картинки в стереопару?! Это немного паранойя, чувствую себя психом, но я её такому не учил, чэсна.
Я потом в фотошопе гимпе делал работу над ошибками с блюром замыливанием. Все для сети сейчас делаю, не делаю сразу стереопару.
нет, нейросеть это библиотека pix2pix, в данном случае ее неофициальная модификация для картинок 1024 на 1024
https://affinelayer.com/pixsrv/
, когда сравнил картинки правую и левую через прозрачность. Что-то прога 3d combine меня подводит, не делает вообще ничего. Буду что-то думать.
Только что нашел в гимпе. Все верно говорил тот анон сверху, я жутко лоханулся и выкладывал не стерео под видом стерео. Ну, буду искать дальше прогу, которая бы делала сразу много кадров-стереокартинок по существующей паре картинка +карта.
Вот две картинки. Одна сделана в 3дкомбайн на режиме параллельное зрение. Вторая для скрещенных глаз. Я нормально умею смотреть только параллельно, и вообще хочу делать параллельные стереограммы для очков ВР.
И почему-то мне кажется, что программа нагло поменяла местами два вида стереограмм, и та картинка, что для скошенных глаз мне кажется реальной, а в той, что для параллельного взгляда- как будто фон выступает наружу, когда я ее смотрю. Файлы названы наоборот. 3дкомбайн обрабатывает одну картинку с помощью карты высот, только я все не могу взять в толк, в какую сторону должна выступать картинка для 3д эффекта (в параллельном просмотре- левая картинка влево и правая вправо или наоборот? Логика мне подсказывает, что так левая- влево, правая вправо, а не наоборот.
Вывод- программа путает право и лево, для стереоочков и параллельного просмотра нужно использовать режим перекрестное зрение, даже если это вроде бы и не так, просто попутали студенты, видимо.
Первая нормальная.
Вторая неправильная.
Те что для косоглазия это и есть для VR очков, сам попробуй.
Шас на ночь поставлю модель с 150 картинками тренится. Потом переведу несколько картинок в 3д ПРАВИЛЬНО, а не по уебански. Если будет норм, попробую видео конвертить (там очень много возни с перекодировкой в картинки и обратно). Если не будет норм- продолжу клепать картинки. В любом случае продолжу их делать. Вверху >>131978 это сделанная в 3д комбайне правильно.
Сам спешу уже, вон в /b япошки запилили сайт с раскраской манги. Но там другая история- у них куча моделей, которые учились из цветной картинки делать черно-белую, а потом уже им меняют направление конверсии с ЧБ на цветное. Но сделать из цветных много чернобелых - относительно просто, а вот кучу карт глубины- сложна. Может стоит посмотреть в сторону 3д плагинов для создания из моделей карты высот, и потом загрузить туда нормально выглядящих 3д аниме девок, чтобы сделать много примеров. Но потом надо будет делать много поз и ракурсов, в имеющихся хентай играх функции карты глубины нету...
Тут - большинство сами. Их тут вообще, примерно столько же, сколько в остальном интернете, лол.
>КОСОГЛАЗИЯ ТРЕД
>Шутят про косых
>Читаешь гайд как правильно косить глаза
>Закрываешь левый глаз
>Изображение должно сместиться
>Не смещается
>Смотришь на палец
>Ничего не двоится
>Вспоминаешь что у тебя косоглазие
Посаны, зацените стереограммы, вроде неплохо же.
Это режим почти без стерео, если включить больше, начинается разброд и шатание. 1 кадр генерится 1,5 секунды, это овердохуя. Я пытался вечером всю ебаную ночь ебался этими сраными конфвертерами, в вин10 vdub не умеет даже с ебаными неработающими внешними кодеками кодировать кадры сразу сконвертить Курониро, но он дает очень много артефактов и путает глубину, потому что похожих ракурсов в обучении еще мало. Остается только работать дальше.
Свожу изображение и получается три. Среднее даже как-то не похоже на трехмерное.
Поставил ладонь посередине. Свожу изображение и сука мыльно, а когда я пытаюсь размылить теряю все что я сводил. Короче хуета какая-то, глазам неприятно только.
есть два типа стереограмм-
1) если смотришь скосив глаза к носу, тогда это перекрестная стереограмма. Их вроде как большая часть в инете, потому что их, вроде проще смотреть.
2) А есть параллельная, когда ты наоборот, разводишь глаза, как будто смотришь на дальний объект. Мне проще смотреть так. В основном я тут делаю для параллельного зрения, т.к. эти картинки можно также смотреть в стереоскопе ака шлем VR с телефоном.
Если смотреть стереограммы наоборот, то у них будет меняться местами глубина и высота. Могу посоветовать также поменять местами правый и левый глаз правое и левое фото- это и отличает первый тип от второго. Если лень резать картинки- можешь даже просто перевернуть ее вверх ногами.
Она вобщем начала работать. еще не все позы персонажей знает. Но с пост-обработкой в проге можно полностью убрать артефакты. Кадры лепятся, мутки мутятся. Вот ловите.
Вот, картинки, которых модель не видела. Да, среди выборки из 75 штук половина словила не те ракурсы, и еще не научилась определять хуи в пространстве. Просто нужно больше примеров. Также на пользу, вроде бы, пошло создание перевернутых и отзеркаленых картинок.
Первая картинка это то, к чему все идет. Ручная работа. Вторая и третья- образец и результат работы проги. Конечно, сейчас в модели использую еще скриншоты из 3д-рендеринга из всяких игр дрочилен. Результатом доволен, на 50 процентов выходных картинок вполне можно фапать можно накладывать блюр и делать неплохие стереограммы. Вообще принцип работы получается как у remove.bg, только там определяются люди просто по контру, а тут сиськи-письки и прочие непотребства. В планах закончить модель процентов на 90 к концу лета. Ибо совершенство 100 процентов недостижимо.
Да, картинки отборные, все еще бывают глюки типа руки трахаря сливаются с фоном.
ну да, я тоже использую для получения карты глубин com3d. Сначала я старался не брать трехмерные игры, т.к. там карты глубин слишком точные относительно тех, которые делают люди для своих потребностей- грубо говоря выделяют выпуклость груди очень сильно. но, затем, подумав немного, понял, что важнее обучить модель выделять контуры и хотя бы приблизительно глубины. В наборе рендеров reshade можно довольно качественно выделять карту глубин с помощью шейдера clarity, и получается эффект с хорошим "почти ручным" выделением контуров тела с помощью ползунков.
Но, относительно числа картинок для тренировки я не буду брать компьютерные рендеры больше чем 50 на 50. И там еще есть геморой с тем, что скриншоты делаются в рендере и в игре с разницей по времени, так что надо снимать только статичные сцены. В некоторых игрушках такого недостатка нет, но там например, не рисуется мпх в рендере. Нюансы, нюансы...
У меня в com3d2 решейд не может буфер глубины выстроить, использую TriDef 3D. Хотелось бы в решейде еще амбиент оклюжен подрубить, но для него нужен этот буфер глубины.
Если планируешь потом анимацию конвертить, не думал что будет полезно еще и предыдущий кадр сетке скармливать? Шума должно быть меньше и ей будет проще персонажа от фона отличить. Я не шарю в этом, просто кукаретические мысли.
>>137915
Твой 3дэ комбайн ужасно артефачит и мылит картинку, я нагуглил еще StereoPhoto Maker, в нем и делал гифку, но там тоже все через жопу.
Я не я, прога не моя. Она может артефачить (сильные искажения по краям как буд-то иглы), если ей скармливать файлы до этого обработанные через dmag. Не знаю, в ней ли ты делал эту карту глубин, но спасибо, разберу на картинки и скормлю сетке.
Если сохранить файл в пеинте, то она (3д комбайн) нормально обрабатывает, видимо особенность старой проги дмагв 3д комбайне тоже есть особенность- при выборе пункта постобработки Match depthmap quick или сложный, оно всегда сдвигает карту чуть влево, поэтому нужно по-хорошему делать 4 обработки и поворачивать картинку 4 раза на 90 градусов
Я тоже сначала попытался монтировать анимацию по карте глубин, наделал много кадров, у меня получилось гораздо хуже, чему тебя, но я еще в фотошопе смещение делал по альфа каналу, так что это вообще пушка была, всмысле ужасное качество. И все это натолкнуло на деланье нейросетки, сам понимаешь- ужасно много времени жрет.
>>137927
Пробовал в решейд искать нужные каналы в последней вкладке? Там можно найти каналы отдельные для интерьера, интерьера и персонажей, только для девушек и т.д. Возможно, что ты просто не находил нужные.
По поводу сетки и последнего кадра- не совсем понятно. Я не прогер, сам в сетку новые данные не введу, но! Если бы я, например, вырезал только 1 кадр из анимации, что запостил анон сверху и скормил бы его сетке вместе с кадром карты глубин, то сетка бы уже на основе этих двух кадров смогла бы дорисовать карту глубин для еще многих похожих на этот кадр картинок, т.е. доделала бы всю анимацию. Я уже пробовал так для одной гифки. Вобщем можно скармливать ключевые кадры, чтобы получать неплохой результат, и он, вопреки моим ожиданиям, даже не скачет между кадрами, т.е. его можно было бы преобразовать в стерео анимацию как на первой картике. Даже сейчас попробую это сделать для иллюстрации. Ну, вобщем не вижу необходимости добавлять прошлый кадр, если правильно понял о чем ты, оно само и так делает анимацию непрерывной, если сильно не меняется освещение и цвета сцены. А если меняется, то я еще множу свои примеры путем смещения разных цветовых каналов и изменения яркости исходной картинки. И поворачиваю примеры на 90, 180 и 270 градусов. И из одного примера получается много, для этого даже ввели термин и я читал статью на гитхабе, но все забыл.
Я не я, прога не моя. Она может артефачить (сильные искажения по краям как буд-то иглы), если ей скармливать файлы до этого обработанные через dmag. Не знаю, в ней ли ты делал эту карту глубин, но спасибо, разберу на картинки и скормлю сетке.
Если сохранить файл в пеинте, то она (3д комбайн) нормально обрабатывает, видимо особенность старой проги дмагв 3д комбайне тоже есть особенность- при выборе пункта постобработки Match depthmap quick или сложный, оно всегда сдвигает карту чуть влево, поэтому нужно по-хорошему делать 4 обработки и поворачивать картинку 4 раза на 90 градусов
Я тоже сначала попытался монтировать анимацию по карте глубин, наделал много кадров, у меня получилось гораздо хуже, чему тебя, но я еще в фотошопе смещение делал по альфа каналу, так что это вообще пушка была, всмысле ужасное качество. И все это натолкнуло на деланье нейросетки, сам понимаешь- ужасно много времени жрет.
>>137927
Пробовал в решейд искать нужные каналы в последней вкладке? Там можно найти каналы отдельные для интерьера, интерьера и персонажей, только для девушек и т.д. Возможно, что ты просто не находил нужные.
По поводу сетки и последнего кадра- не совсем понятно. Я не прогер, сам в сетку новые данные не введу, но! Если бы я, например, вырезал только 1 кадр из анимации, что запостил анон сверху и скормил бы его сетке вместе с кадром карты глубин, то сетка бы уже на основе этих двух кадров смогла бы дорисовать карту глубин для еще многих похожих на этот кадр картинок, т.е. доделала бы всю анимацию. Я уже пробовал так для одной гифки. Вобщем можно скармливать ключевые кадры, чтобы получать неплохой результат, и он, вопреки моим ожиданиям, даже не скачет между кадрами, т.е. его можно было бы преобразовать в стерео анимацию как на первой картике. Даже сейчас попробую это сделать для иллюстрации. Ну, вобщем не вижу необходимости добавлять прошлый кадр, если правильно понял о чем ты, оно само и так делает анимацию непрерывной, если сильно не меняется освещение и цвета сцены. А если меняется, то я еще множу свои примеры путем смещения разных цветовых каналов и изменения яркости исходной картинки. И поворачиваю примеры на 90, 180 и 270 градусов. И из одного примера получается много, для этого даже ввели термин и я читал статью на гитхабе, но все забыл.
Делал вручную без dmagа. От артефактов по краям можно избавиться в фотошопе, накинув на глубину фильтр максимум в пару пикселей, но все равно комбайн мылит картинку.
Кароче, я попробовал твою карту глубины на твою картинку залить в комбайне. Я и сам эту картинку раньше сделал просто, и она никакими манипуляциями не хотела делать постобработку твоей карты правильно, даже после сохранения в пеинте. Впрочем как и моей, почему-то. Я просто не проверяю все картинки, которые делаю- клепаю в стол, так сказать, на работе модели это не отображается. Видимо, это какая-то глючная исходная картинка, хотя, на самом деле глючен комбайн, конечно, он просто ее не пережевывает.
Но вообще он делает нормально, это первый такой пример, где он совсем ничего не смог сделать -тупо выдвал и на твоей и на моей карте глубин артефакты по краям. Для сравнения вот: под номером 4 картинка до постобработки, под номером 1 глючная- без пересохранения в пеинте после постобработки- везде угловатости. вторая- после пересохранения в пеинте. Да, блюра дает, но вообще оно исправляет некоторые огрехи, которые дает сейчас и будет давать моя модель. Третья карта- просто из дамага.
Да, и еще в догонку, если у тебя вдруг будут еще карты, буду безмерно благодарен, если зальеш куда-нибудь. Если интересует- могу по бартеру меняться 1 к 1 тут прямо. Надеюсь качество последней нормальное, в начале треда я вообще такую дичь делал, как говорил уже пришлось первую сотню переделывать, хотя можно ее было просто выкинуть. Сам, чтобы не делать дублей, смотрю данбору популярное и сохраняю 1-2 картинки в день. И примерно столько же делаю, но чет в последнее время работы много, максимум 1 в день, картинки копятся как снежный ком.
Не, если бы такое выдавала сетка, я бы уже пил ром на пляже где-нибудь в Лос-Анжелесе. Это из dmag. Первая отдельная картинка занимет около получаса, а те, что делаются на ее основе- например с элементами одежды, с какими-либо незначительными изменениями- чуть меньше.
Вот болванки для dmag для примера.
Конечно, их я делаю в гимпе со слоями. Есть куча не очевидных, по крайней мере, для меня, приемов для упрощения жизни, например скейлить картинку по размеру вниз процентов на 20 и потом использовать threshold alpha чтобы получать хорошие грани для черного фона. В одной картинке использовал сайт с нейросетью remove.bg, чтобы не обводить вручную, теперь буду юзать часто. Почти везде юзаю waifu2x чтобы догнать картинку до 1024 пикселей с одной стороны. Мне кажется, так быстрее, чем вручную- я хочу что-то среднее между супер качеством и количеством/сложностью. Вручную просто не представляю, сколько времени это может занимать. В свободный день можно и 10 штук абсолютно разных запилить картинок, но это как рабочая смена чувствуется, и перерывы на отдых нужны.
А качество с нейросетки все еще не очень. Но с каждой сотней картинок, я вижу что оно улучшается, что меня и толкает вперед делать еще и еще карты.
Я вчера обещал показать, что нейросетка может на 1 картинке доделать анимацию, так вот, извините, вчера я устал и подзапорол сопоставление оригинала и приделал туда не ту картинку с картой глубин, и все пошло по пизде. Потом переделал обучение до 1 картинки- т.е. вот на основе 1 ихображения что получилось, сейчас вброшу.
На втором примере сетка выделят тень, кусок прически не распознает. Это не так уж и бросается в глаза, особенно после превращения в стерео, но этого быть не должно, по хорошему.
Еще раз повторю, что все запощенные картинки нейросеть не видела до этого, и сделала сама для них карты по секунде на картинку.
Потом я постепенно добавляю уже вручную доделанные картинки к базе, на которой учится сеть.
Еще раз спасибо за примеры.
>>137974
Это я накосячил, так тоже для косых делаю.
Сразу тебе скажу, я использую одну из тех старых версий дамаг что с графическим интерфейсом, мне не удобно менять параметры в файле. У меня там только два параметра- обратный допуск по умолчанию 90 и количество итераций. Допуск для порномультиков сразу можно ставить от 25-30 до 45, иначе придется выделять и прорисовывать каждую мелкую детальку. Дифференциация идет по цветам. После исправления очевидных ляпов, которых не замечаешь сразу, можно повышать до 45 допуск и итерации в конце ставлю под 20.000 чтобы оно даже останавливалось и "решало" картинку полностью. Ну и работает моя версия нормально до 1200 на 1500, потом пишет нехватка памяти. Но оно делает за меня работу, пока я туплю в двочи. Для анимации оно похуже будет- будет чувствоваться разница между кадрами, сложно менять местами маску, лучше для одиночных или похожих картинок.
>>131694
слушайте ребят а можно снять маску глубины с 2х фоток с небольшым отклонением ? гуглкамера же както это делает для эфекта "фейкобоке". я так и ненашел готовых решений.
видел тока программки для фотограмметрии чтобы перевести обект в 3д. а для задач снятия маски глубины 1го ракурса чето неувидел программок.
Этож сводит на нет необходимость покупки пленоптической камеры.
и эфекты дымки и глубины резкости можно отсебя бацать.
Да и распологать 3д модельки в сцену ротоскоп без сэкса с напавляюшими перспективы.
>слушайте ребят а можно снять маску глубины с 2х фоток
Это очень стрёмная тема, сейчас я попробую тебе ее вскрыть.
Насколько мне известно, гулокамера создает довольно размытые карты глубины за счет нейросети, которая научилась распознавать и отличать размытый дальний ракурс от предмета в фокусе (вроде только человека-лица, но я не уверен, не пробовал эту прогу). И эффект "фейкобоке"- это вроде бы и есть фотограмметрия, но не в 3д а со смещением... Ну вобщем 2,5д, как примерно то, что мы тут делаем с картами глубины и стереоитзображениями на их основе.
Прога есть одна, а также куча энтузиастов на гитхабе, которые уже давно пытаются сделать это безуспешно, ну по крайней мере их результат на уровне той же проги.
Прога для примерного извлечения карты глубины из стереопары называется StereoTracer. Она делает свое дело довольно грязно- как будто качество очень сильно зависит от того, как качественно сделана стереопара (и боюсь, что просто двух ракурсов будет недостаточно, там понадобится для твоих целей и нормального качества штатив с двумя фиксированными камерами). Там есть два ползунка, чтобы совместить передний и задний план и потом она строит карту. Крякнутой версии нигде нету и на извлеченную карту наносится ватермарка, но это ограничение очень просто обходится, если делать скриншот экрана предпросмотра вместо эскпорта.
Вообще можешь гуглить depth map from stereo pair, и будет довольно много результатов еще с сайтов 90 годов. Куча прог под вин95, и я как бы искал для своих аналогичных нужд прогу, и вроде бы ничего кроме стерео трейсера среди их нету.
Спасибо за ответ но.
>Насколько мне известно, гулокамера создает довольно размытые карты глубины за счет нейросети, которая научилась распознавать и отличать размытый дальний ракурс от предмета в фокусе
тут видиш анон какое дело. я кратко описал суть. нейросети это ты глубже копаеш они если и есть сейчас то касячки убирают прост скорей всего. ведь фейкобоке появилось в nexus 5 еще до всех этих Нейросетей ИИ и тд. с помощю отлонения 1й камеры. https://youtu.be/ZiP3yNOBz6c . так что мне покачто тока Z Depth нужна)
стерипары меня пока что неинтересуют но они сложней просто потому что там недостаточно иметь тока маску глубины тк нужно еще дорисовывать то что находится под смешаемым объектом. но тут либо общее увелечение масштаба либо как раз нейросети помогут.
это какой-то бот залетный
мы бы тебе выкатили бы гайд, ноя не в теме. У каждого свой путь, пусть для тебя твой будет удобным, уникальным и эдаким приключением. Часто, когда делаешь что-то по инструкции, упускаешь более удобные для себя пути
wigglemaker.ugocapeto.com
Гифку делал на этом сайте, нужны сама пикча и карта глубины.
В After Effects пробовал displacement map(карта смещения), нет эффекта объёма, тупо смещает как текстуру по объёмной модельке.
Проебался
Спасибо, анон. Я гайд спрашивал потому что времени свободного не особо много. Но пока ждал ответ уже сам освоил, лол.
А карту смещения сам рисуешь или какой-то софт использовал?
Я сам рисую, можно еще Depth Map Automatic Generator юзать.
чет оно вообще не робит у меня
и карты смещения давай выкладывай
выложил бы, я бы уже посмотрел, может бы закинул кадры в модель. Не знаю, тот ли ты анон, что закинул гифку>>137935, вот из нее я взял все кадры. Из последующих не брал, там были артефакты по краям, от которых я сейчас избавляюсь в своих старых картинках.
В общем выкладывай, может мне поможет.
Но, вроде по некоторым кадрам, вижу что пальцы не прорисованы отдельно. Вроде как. В любом случае на видео это не так заметно, но вот модельку я бы такому не учил.
И еще, само стерео сделано очень хорошо, тока его сложно смотреть в таком широком формате- поэтому я сам не делаю почти на широких картинках, больше на высоких. Может тебе стоит попробовать делать анаглиф. Или, не знаю, поможет ли, вертикальные стереопары. Сам я таких не смотрел, вроде там нужны особые очки.
Ты не тому ответил
Там вообще халтура полная, только первые 5 кадров еще норм, но даже тут можно увидеть как качество падает.
на данбору за последние пару недель лучшие за день.
Почему кстати такая ушербная интрполяция у смешаемых пикселей ? бог же дал людям ланцошу и митчела а они без сглаживания хуярят.
объясни подробнее, пожалуйста. Я не очень умный. Может ты о том, что, на двух картинках некоторые пиксели не совпадают, или ты к качеству изображения вообще. Я пока что делаю как могу, блюрю тока карту глубины. Может если делать эту вот вашу интерполяцию будет и лучше, тогда возьму на вооружение для будущих работ.
>ланцош
так, я тут вроде подразобрался. Некоторые изображения я увеличивал с помощью вайфу2х, а потом уменьшал до 1024 по одной оси, но в гимпе по дефолту стоит кубическая.
Ее и юзал для правого изображения. Для левого хз что там 3дкомбайн использует, там просто фильтрует.
Обе правильные. Первая для сведённых глаз, вторая для разведённых (названия перепутаны, да).
>Те что для косоглазия это и есть для VR очков
Нет, лол. В виаре для каждого глаза своё изображение. Контент для косоглазия просматривается как на гифке тут >>80179
>>138696
Хз. У меня наоборот были сильные проблемы с фокусировкой при скрещивании взгляда, когда первый раз пытался так посмотреть разводить глаза научился до этого и трудностей с фокусировкой при этом не было. Но через полчасика попыток таки научился и сейчас легко фокусируюсь. Так что могу посоветовать только практику.
>>138696
У меня это с детства получалось, не знаю, но попробуй картину немного отвести от себя, поморгать. Вообще, мне этот метод больше нравится, потому что изображение не уменьшается, и мышцы глаз не устают (но у меня глаза немного разной высоты, при этом оба раздвигются не в стороны друг от друга, а как бы перпендикулярно относительно носа, и фокусировка иногда спонтанно теряется)
Задача оказалась очень сложной. Первоначальный оптимизм можно поубавить. Попробую расписать по пунктам, может кому-то и пригодится эта инфа в будущем. (хотя все статьи, что я читал, пишутся для самих авторов, чтобы обобщить своих знания).
Первоначально я заставял тренироваться-работать сеть имплементацию https://medium.com/@karol_majek/high-resolution-face2face-with-pix2pix-1024x1024-37b90c1ca7e8 на разрешении 1024 на 1024 и оригинальным ngf 64 пару дней (количество нейронов на первом слое- увеличение в 2 раза до 128 увеличит итоговое количество параметров сети в 4 раза, т.е. геометрическая прогрессия, т.е. требуется уже в 4 раза больше видеопамяти- (гигов 20 наверное) и процесс идет медленнее. Результаты вы могли видеть в треде, были и хорошие были и ужасные, но тренд был в общем положительный с каждой новой сотней примеров, которые я обрабатывал вручную и засовывал в датасет. Аугментация данных была у меня разной- и переключение цветовых схем, и повороты картинок.
Не так давно я перешел на pytorch имплементацию кода, потому что там можно смотреть в браузере и менять параметры. Сразу скажу, что tensorflow-версии я еще не трогал. В связи с нехваткой времени на допиливание новых стереограмм я также стал использовать пары из хентайных игр.
После некоторого количества экспериментов, я пришел к выводу, что нейросеть на разрешении 256 на 256 и ngf 8 ndf 32 может опознать 1 предмет (в данном случае пару женских грудей), которому ее обучали на новых картинках и более-менее опозновать и конвертировать ее правильно. Дискриминатор должен быть больше в 4 раза, иначе все обучение сводится к конверсии цвета тела в белый поднятого уровня глубины стереограмы.
В итоге мне что-то подсказывает, что учет всех параметров, которые могут возникнуть на картинке- варианты одежды, ее цвет, позы, дополнительные предметы- это просто огромный массивы данных, и сеть нужно будет запускать на пару недель на ngf 256 ndf 256 даже для скромного разрешения 256 на 256. И это мои самые скромные оптимистичные профанские прогнозы. И еще нужно будет использовать датасет гигов на 200. Это просто ебать, если честно. У меня нет знаний, чтобы прикрутить аугументатор к процессу, чтобы не хранить весь датасет, к сожалению. Возможно, стоит заняться изучением этого вопроса. (Я читал оень много статей по переводу в стерео изображений с помощью нейросети. Все пишут, что это очень перспективно, но если смотреть их результаты- они переводят на основе обучения на паре сотен картинок однотипных бытовых предметов типа стул стол диван стены такие же выборки из тех же стульев в другом положении. Конечно, глупо было бы ожидать от нейросети распознавания чего-то, чего она не видела никогда. Но вот охватить какой-то широкий объем предметов ни одной исследовательской группе тоже еще не получалось. Пишут, что будут проводить эксперименты на улице и на этом их исследования обрываются где-то в 2018 году. И это не одиночный случай, к сожалению.
Относительным успехом можно назвать то, что мои сети могут делать то же самое, что и сайт remove.bg, только не обрезать задники, а в картинках, у которых нету задника, а просто заливка однотонная,- могут обрисовывать контур тела и намечать там жопу сиськи и тд и тп в карте глубины. Многие бы сказали, что этого достаточно, но я попробую еще чего-нибудь придумать, перед тем как возьмусь за развитие этого направления в чистом виде. По сути засунуть в одну нейросети обрезание контуров и карту глубины анатомии аниме-девок- это задача в 4 раз сложнее, и я не знаю, какие параметры надо для этого подобрать в 2 или 4 раза больше....
На данный момент я займусь вот чем- буду пытаться научить нейросеть распознавать одну единственную незнакомую картинку, предлагая для обучения ей много похожих картинок по цвету и позе персонажа. У меня был один успешный пример того, как сеть доделала карту глубины анимации длиной пару секунд с 2 кадров для обучения (она просто подгоняла карту глубины под цвета без понятия о том, что за части тела она обрисовывает). Если это получится, я смогу хотя бы гифки переводить в 3д без напряженной ебли. Хотя, возможно, по времени это будет занимать столько же.
Задача оказалась очень сложной. Первоначальный оптимизм можно поубавить. Попробую расписать по пунктам, может кому-то и пригодится эта инфа в будущем. (хотя все статьи, что я читал, пишутся для самих авторов, чтобы обобщить своих знания).
Первоначально я заставял тренироваться-работать сеть имплементацию https://medium.com/@karol_majek/high-resolution-face2face-with-pix2pix-1024x1024-37b90c1ca7e8 на разрешении 1024 на 1024 и оригинальным ngf 64 пару дней (количество нейронов на первом слое- увеличение в 2 раза до 128 увеличит итоговое количество параметров сети в 4 раза, т.е. геометрическая прогрессия, т.е. требуется уже в 4 раза больше видеопамяти- (гигов 20 наверное) и процесс идет медленнее. Результаты вы могли видеть в треде, были и хорошие были и ужасные, но тренд был в общем положительный с каждой новой сотней примеров, которые я обрабатывал вручную и засовывал в датасет. Аугментация данных была у меня разной- и переключение цветовых схем, и повороты картинок.
Не так давно я перешел на pytorch имплементацию кода, потому что там можно смотреть в браузере и менять параметры. Сразу скажу, что tensorflow-версии я еще не трогал. В связи с нехваткой времени на допиливание новых стереограмм я также стал использовать пары из хентайных игр.
После некоторого количества экспериментов, я пришел к выводу, что нейросеть на разрешении 256 на 256 и ngf 8 ndf 32 может опознать 1 предмет (в данном случае пару женских грудей), которому ее обучали на новых картинках и более-менее опозновать и конвертировать ее правильно. Дискриминатор должен быть больше в 4 раза, иначе все обучение сводится к конверсии цвета тела в белый поднятого уровня глубины стереограмы.
В итоге мне что-то подсказывает, что учет всех параметров, которые могут возникнуть на картинке- варианты одежды, ее цвет, позы, дополнительные предметы- это просто огромный массивы данных, и сеть нужно будет запускать на пару недель на ngf 256 ndf 256 даже для скромного разрешения 256 на 256. И это мои самые скромные оптимистичные профанские прогнозы. И еще нужно будет использовать датасет гигов на 200. Это просто ебать, если честно. У меня нет знаний, чтобы прикрутить аугументатор к процессу, чтобы не хранить весь датасет, к сожалению. Возможно, стоит заняться изучением этого вопроса. (Я читал оень много статей по переводу в стерео изображений с помощью нейросети. Все пишут, что это очень перспективно, но если смотреть их результаты- они переводят на основе обучения на паре сотен картинок однотипных бытовых предметов типа стул стол диван стены такие же выборки из тех же стульев в другом положении. Конечно, глупо было бы ожидать от нейросети распознавания чего-то, чего она не видела никогда. Но вот охватить какой-то широкий объем предметов ни одной исследовательской группе тоже еще не получалось. Пишут, что будут проводить эксперименты на улице и на этом их исследования обрываются где-то в 2018 году. И это не одиночный случай, к сожалению.
Относительным успехом можно назвать то, что мои сети могут делать то же самое, что и сайт remove.bg, только не обрезать задники, а в картинках, у которых нету задника, а просто заливка однотонная,- могут обрисовывать контур тела и намечать там жопу сиськи и тд и тп в карте глубины. Многие бы сказали, что этого достаточно, но я попробую еще чего-нибудь придумать, перед тем как возьмусь за развитие этого направления в чистом виде. По сути засунуть в одну нейросети обрезание контуров и карту глубины анатомии аниме-девок- это задача в 4 раз сложнее, и я не знаю, какие параметры надо для этого подобрать в 2 или 4 раза больше....
На данный момент я займусь вот чем- буду пытаться научить нейросеть распознавать одну единственную незнакомую картинку, предлагая для обучения ей много похожих картинок по цвету и позе персонажа. У меня был один успешный пример того, как сеть доделала карту глубины анимации длиной пару секунд с 2 кадров для обучения (она просто подгоняла карту глубины под цвета без понятия о том, что за части тела она обрисовывает). Если это получится, я смогу хотя бы гифки переводить в 3д без напряженной ебли. Хотя, возможно, по времени это будет занимать столько же.
Бля, анон, удачи тебе, будем болеть за тебя всем итт. А ты работаешь или учишься где-то сейчас? Какая специальность? Просто интересно, не связан ли этот хентай тред с твоим направлением
я так люблю эту телегу гнать про свою жизнь, она у меня интересная что пиздец. Кароче, у меня комп с 6 лет был, что позволило научиться эникейству, но вот с програмиррованием не срослось- родаки гнали ссаной тряпкой от него, и что-то поисдеть с учебником никак не удавалось. Потом родаки погнали в институт на бизнесьмена, о господи. Еще там начал интересоваться базами данных, но поверхностно. Это образование позволило замутить движуху (бизнес- просто открытие бизнеса, ведение без лишней бухгалтерии) для родичей и себя в виде пары сайтов инет-магазинов самостоятельно начиная с html сайтов и заканчивая покупкой битрикса и еблей уже с ним, php и mysql и примерно столько же с SEO, которая позволяет не особо напрягаясь получать стабильный доход. Вот после всего этого мне стало интересно опять чего-то намутить, только чтобы это было еще пассивнее, чем инет-магазины, где я сам себе грузчик-курьер и директор. Малые бизнесы не растут, потому что туда сложно брать людей на 8 часов, а рисковать и вкладывать доход за пару лет в расширение очень узкого места- ну я опоздал уже на распил в начале 2000- и так в городе по расширенному профилю фирм как собак. Вот так вот. Так , остановились на пассивке- почему бы не дать людям то, чего они хотят. Фапать на старое 2д аниме в 3д. Может в итоге это все выльется в какой-то сайтик с рекламным баннером от гугла типа waifu2x. Даже если не взлетит, мне все равно это сейчас интереснее чем все компьютерные игры.
Пока я утра ебался с моделью, пересмотрел код первой имплементации, и понял, что она лучше чем pytorch, и вернулся на нее, одновременно научившись пользоваться tensorboard. Оказывается, это было tensorflow, а я и не знал. И качество на ней было лучше, чем последние попытки, да и в инете в сравнительных тестах тоже.
Вот такими вот скачками я потихоньку понимаю что-то в программировании без его прямого изучения. Сейчас буду ставить модель на своей огромной выборке на каждую ночь, потиху скармливая ей новые данные с хентайных игр.
В общем чтобы что-то делать хорошо для своего удовольствия надо сначала сделать себе хорошие условия. Вроде я так сделал. Жалею, что не вкатился раньше в программирование, наверстываю не спеша в свое удовольствие,да и не совсем в программирование. Просто использую свободное машинное время пока работаю или не сижу за пекой. И сумбурно попиздеть я люблю, да.
я так люблю эту телегу гнать про свою жизнь, она у меня интересная что пиздец. Кароче, у меня комп с 6 лет был, что позволило научиться эникейству, но вот с програмиррованием не срослось- родаки гнали ссаной тряпкой от него, и что-то поисдеть с учебником никак не удавалось. Потом родаки погнали в институт на бизнесьмена, о господи. Еще там начал интересоваться базами данных, но поверхностно. Это образование позволило замутить движуху (бизнес- просто открытие бизнеса, ведение без лишней бухгалтерии) для родичей и себя в виде пары сайтов инет-магазинов самостоятельно начиная с html сайтов и заканчивая покупкой битрикса и еблей уже с ним, php и mysql и примерно столько же с SEO, которая позволяет не особо напрягаясь получать стабильный доход. Вот после всего этого мне стало интересно опять чего-то намутить, только чтобы это было еще пассивнее, чем инет-магазины, где я сам себе грузчик-курьер и директор. Малые бизнесы не растут, потому что туда сложно брать людей на 8 часов, а рисковать и вкладывать доход за пару лет в расширение очень узкого места- ну я опоздал уже на распил в начале 2000- и так в городе по расширенному профилю фирм как собак. Вот так вот. Так , остановились на пассивке- почему бы не дать людям то, чего они хотят. Фапать на старое 2д аниме в 3д. Может в итоге это все выльется в какой-то сайтик с рекламным баннером от гугла типа waifu2x. Даже если не взлетит, мне все равно это сейчас интереснее чем все компьютерные игры.
Пока я утра ебался с моделью, пересмотрел код первой имплементации, и понял, что она лучше чем pytorch, и вернулся на нее, одновременно научившись пользоваться tensorboard. Оказывается, это было tensorflow, а я и не знал. И качество на ней было лучше, чем последние попытки, да и в инете в сравнительных тестах тоже.
Вот такими вот скачками я потихоньку понимаю что-то в программировании без его прямого изучения. Сейчас буду ставить модель на своей огромной выборке на каждую ночь, потиху скармливая ей новые данные с хентайных игр.
В общем чтобы что-то делать хорошо для своего удовольствия надо сначала сделать себе хорошие условия. Вроде я так сделал. Жалею, что не вкатился раньше в программирование, наверстываю не спеша в свое удовольствие,да и не совсем в программирование. Просто использую свободное машинное время пока работаю или не сижу за пекой. И сумбурно попиздеть я люблю, да.
бля, отличная стори. По поводу хороших условий для дальнейшей жизни согласен абсолютно, с такими же мыслями вкатился в стоматологию, лол, потому что те направления по биологии, которые мне нравятся, для денег не особо годятся. Я пока зелёный ещё, но не жалею ни о чем. А тебе удачи, всегда хотел дрочить на 3д хентай, при этом не нося шлем как долбоеб хотя фапать, скашивая глаза, тоже наверно ебануто выглядит
а ты не фапай при людях, тогда неважно как выглядит. Да и я потиху перевожу кадры не только из хентайных игрушек. Вот недавно открыл для себя Ni no kuni. Вот это графон знатный и карта глубин достается без танцев с бубнами. https://www.youtube.com/watch?v=u9uwRW8GoBg
352x288, 0:10
Вот пример обучения на 1 картинке, конкретно на 4ом кадре из этого 150-кадровго лупа. Получается нормально, сделай я больше кадров, было бы вообще заебись. Ни о каком обучении с обучением форм тела тут речь не идет, просто 800 поколений раз нейросеть пыталась превратить одну картинку в другую, и сделал это в конце-концов на основе информации о цвете пикселя и его примерном расположении на площади картинки.Извините за разрешение- обучал на 256, и в программе кодера только 286 или что-то там поддерживалось. Завтра попробую 512 что-нибудь сделать.
bump
1024x576, 0:05
>>140396 Следить особо не за чем, буду просто баловаться сейчас, выкладывать сюда результаты. Вроде как сбылась мечта идиота, хоть и не без ручной обработки каждой сцены. В недельном перерыве между постами я пытался запились простой цензор сисек, и, скажу я вам, это не так просто- даже обучить сетку отличать их, включая все размеры- очень непросто. Нужно реально примерно по 1000 примеров на каждый вид и оттенок кожи, угол поворота, и даже техника аугментации данных не особо помогает. Не говоря уже о полной информации о картах глубин. Так и живу, обучая на цветовых схемах.
Я поленился доделывать и не сделал. В результате хотел использовать анцензор чтобы получить кучу цензурированных картинок + оригинал, чтобы потом делать анцезуру, как у японца в одной сетке в соседнем треде, но моих интенций и времени пока на это не хватает.
Вот эта ничё так. Но всё равно не хватает объемности. Для правдоподобного эффекта нужно ещё больше смещения угла взгляда и самой картинки, типо как тут >>139271. Сейчас это больше похоже на коллаж из 2д-пикч.
Алсо, пиши где-нибудь для какого типа просмотра файл, плиз. А то приходится угадывать.
1024x576, 0:063,6 Мб, webm,
1024x576, 0:063,6 Мб, webm,
1024x576, 0:064,9 Мб, webm,
1024x576, 0:17
Блять
кста, глаза сломать можно?
Пока что видео сильно уступает 2д картинкам почему-то. Буду думать почему.
>>140694
Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки. Зато, как видели, в последнее время, пытался я делать видео. И некоторые получались нормально, некоторые- плохо.
Видимо, дело в том, что обязательно нужен неоднотонный задний фон. Просто белая заливка не будет давать стереоэффекта. а также намного лучше, если тело имеет переходы тонов как в артах, например>>140597, а не как в аниме, где все однотонно залито. Это по той же причине, что и однотонная заливка задника- не получается стерео, не чувствуется, что часть тела выше другой, поэтому и плохо выглядят >>140566 >>140530.
Еще до этого я пытался выдирать карты глубин из имеющихся стерео-аниме- призрак в доспехах, 009 король: Киборг, Граница пустоты: Сад грешников в 3Д, Юные принцессы. Райское влечение 3Д, а также из БАКУГАН, которого нету на рутрекере. Во всех, кроме 009 выдернутые карты глубин были в виде простейших двухмерных слоев для каждого персонажа- т.е. персонаж близко- его весь контур белый, тот что подальше- серый и т.д. без вяких деталей одежды или волос. Можно понять несчастных аниматоров- это было бы просто адище каждый кажр переводить по полной. В тех аниме, что строятся на 3д модельках- немного призрак и полностью 009, карты глубин четче, но модельки то выглядят бездушнее. Вывод- в ближайшее время нормального перевода анимации в 3д не ждите, нужно, чтобы куча людей наделали огромный датасет и подключили огромные вычислительные мощности, и то не факт, что не получится такое же глючное гомно, как генератор лиц от нвидии или аниме-девок от каких-то там японцев. Они все глючные, несмотря на огромные подключенные ресурсы.
Но. Есть один вариант, который я попробую сделать в ближайшее свободное время. Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто.
На борах таких анимаций довольно много и выглядят они, по большей части, плохо. Но если взять и найти хорошие, с хорошими переходами тонов кожи, а не простой заливкой и более-менее нормальной анимацией, то от них будет норм 3д эффект. Также, как вариант, можно более-менее плохо делать такие анимации самому в видео-редакторах или в OE-CAKE, какой это веселый угар я расскажу позже. Пока держите няшек.
И еще повайню по поводу глючность проги- на последней стереограмме задние фоновые квадраты просто ужасно размывались, пока я не повернул картинку зеркально. И типа, это все равно лучше, чем делать в гимпе со смещением, пробовал. Все швах вобщем, вот бы иметь доступ к исходникам авторов с прорисовкой на отдлеьных слоях отдельных частей тела, тогда можно было бы запилить очень качественное смещение для каждого отдельного органа, лол.
>>140694
Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки. Зато, как видели, в последнее время, пытался я делать видео. И некоторые получались нормально, некоторые- плохо.
Видимо, дело в том, что обязательно нужен неоднотонный задний фон. Просто белая заливка не будет давать стереоэффекта. а также намного лучше, если тело имеет переходы тонов как в артах, например>>140597, а не как в аниме, где все однотонно залито. Это по той же причине, что и однотонная заливка задника- не получается стерео, не чувствуется, что часть тела выше другой, поэтому и плохо выглядят >>140566 >>140530.
Еще до этого я пытался выдирать карты глубин из имеющихся стерео-аниме- призрак в доспехах, 009 король: Киборг, Граница пустоты: Сад грешников в 3Д, Юные принцессы. Райское влечение 3Д, а также из БАКУГАН, которого нету на рутрекере. Во всех, кроме 009 выдернутые карты глубин были в виде простейших двухмерных слоев для каждого персонажа- т.е. персонаж близко- его весь контур белый, тот что подальше- серый и т.д. без вяких деталей одежды или волос. Можно понять несчастных аниматоров- это было бы просто адище каждый кажр переводить по полной. В тех аниме, что строятся на 3д модельках- немного призрак и полностью 009, карты глубин четче, но модельки то выглядят бездушнее. Вывод- в ближайшее время нормального перевода анимации в 3д не ждите, нужно, чтобы куча людей наделали огромный датасет и подключили огромные вычислительные мощности, и то не факт, что не получится такое же глючное гомно, как генератор лиц от нвидии или аниме-девок от каких-то там японцев. Они все глючные, несмотря на огромные подключенные ресурсы.
Но. Есть один вариант, который я попробую сделать в ближайшее свободное время. Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто.
На борах таких анимаций довольно много и выглядят они, по большей части, плохо. Но если взять и найти хорошие, с хорошими переходами тонов кожи, а не простой заливкой и более-менее нормальной анимацией, то от них будет норм 3д эффект. Также, как вариант, можно более-менее плохо делать такие анимации самому в видео-редакторах или в OE-CAKE, какой это веселый угар я расскажу позже. Пока держите няшек.
И еще повайню по поводу глючность проги- на последней стереограмме задние фоновые квадраты просто ужасно размывались, пока я не повернул картинку зеркально. И типа, это все равно лучше, чем делать в гимпе со смещением, пробовал. Все швах вобщем, вот бы иметь доступ к исходникам авторов с прорисовкой на отдлеьных слоях отдельных частей тела, тогда можно было бы запилить очень качественное смещение для каждого отдельного органа, лол.
> Некоторые художники переводят свои двухмерные скечти в анимацию с помощью растягивания частей тела. Я знаю, что вы понимаете, о чем я- просто части тела трясутся при движении, анимированные д2 картинки просто.
Да, это охуенно на самом деле.
> Спасибо, рад стараться. Но в последний месяц я уже не делаю карты глубин, потому что понял, что это бесполезное дело для обучения сетки.
Так ты все это рисовал для обучения нейросети? А нельзя её на каких нибудь более объектах тренить? Типа шарик на переднем плане, и кубик на заднем. А вообще советую выложить идею на реддит или гитхаб какой нибудь, уж там актив поболее чем тут. Тем более я помню что на реддите огромная активность появилась когда там нашли способ с помощью нейросети клеить любые лица на порноактрис.
По поводу шариков, кубиков в пространстве- я очень много читал научных работ по теме обучения нейросетей выделению глубины из двухмерья. Все институты тренируются на 3д рендерах простых, типа тех же кубов и шаров и показывают очень многообещающий результат. Я, как бы, поэтому и занялся тем, чем сейчас занимаюсь, лично увидев, как pix2pi меняет фасады зданий на схему расположения окон. И подумал, почему бы не попробовать. Но вот потом все упирается в выборку- институты используют выборки 100-200 максимум фоток. Это достаточно для определенных задач, но для чего-то нового- нет. На простых шариках и кубиках нейросеть не научить геометрической форме, даже если сначала обрезать цветовые каналы у фото. Да, она будет отличать твои шары и кубы на твоем фоне. Потому что научиться цветам и оттенкам, потому что это проще Как только ей дадут для обработки фото а не компьютерный рендер, она даст глича. Это как просить художника, который всю жизнь рисовал портреты и не встречал в жизни вазы, нарисовать вазу. Или уродство или инвалидность нарисовать, при условии, что он не видел инвалидов- тоже ничего хорошего не выйдет.
Этим летом Нвидия на конференции в сша представит даже технологию перевода видео в 3д с использование обычной цифровой камеры. Они на гитхабе выложили кусок кода, где видно, что видео будет воспринимать по 5 кадров и выдирать глубину из него боюсь сказать неточно, но это вроде интерполяция с использованием смещения разных объектов в кадре Вот эта технология должна, в теории, превратить любую камеру стереокамеру, или как там называется оборудование с множеством светочувствительных элементов для поимики глубины, я еще писал выше про его домашний вариант.
Так вот, о чем это я. Как я уже писал, все эти работы с небольшой выборкой однородных объектов дают предсказуемо хороший результат. Но, стоит группе ученых выйти "в поле" на улицу , как их научная работа подвисает в воздухе. Да, есть определение объектов на дороге (машина, пешеход, знак, дерево, бордюр) на одном несчастном сете картинок, но вот как ведет себя сеть в полевых условиях- скорее всего пиздец за семью печатями. Да что там говорить, даже у оригинального мануала для pix2pix есть фото-глич, гте путина на коне перекрасили под зебру целиком, потому что раньше сеть не обучилась отличать человека от коня- только коня от зебры. Все, что соединено с конем- тоже конь, никаких оригинальных прорывов нейросеть не сделает сама. Она может только автоматизировать сложную рутинную работу, если ей скормить уже много примеров проделанной работы.
Нет, нейросеть нельзя научить чему-то, чего ты сам не умеешь делать в достаточно больших масштабах. На реддите уже есть пара тредов про 3д. Вроде там же или в твиттере обитает автор соседнего анцензора. Он еще спрашивал, чем ему стоит заняться после завершения работы с анцензором, и ему уже подсказывали, что можно попытаться запились 2дto3д, на что он вроде ответил то же самое, к чему я пришел позже, попробовав самостоятельно- не получается обучить сеть без реально огромного количества примеров. Овер 1кк(к). Это потребует аналогичных по цене вычислительных затрат. Даже если каждый нерд на планете переведет по картинке в карту глубин, то все равно у нейросети случится когнитивный диссонанс, когда она увидит, что, например, пара нердов перевели в карту глубин один и тот же арт по разному. Да, в итоге она должна прийти к чему-то более-менее среднему, средне-статистическому. Останется найти только 1кк нердов и их всех скоординировать. Вариант с 3д моделями тоже так себе, если подумать, только если какому-то ученому или инвестору прийдет в голову идея запилить автоматический генератор на коммерческой основе, который будет давать картинку сопоставимую по качеству с д2 но в 3д (после чего необходимость в переводе 2д в 3д отпадает как бы).
Что еще сказать. Не помню, писал ли я про каскады нейронный сетей, типа одна сеть распознает позу человека, другая намечает в комбинации с оригинальной картинкой контуры, потом третяя сеть чуть более точно воспроизводит карту глубин и т.д., в том числе используя не только нейросети, но и старые алгоритмы. Звучит чуть более реалистично, но требует не меньше трудочасов. Вобщем возрадуйтесь, художники, от слова худо- в ближайшее время вас не заменят бездушные машины, энивей.
Так вот, пожалуй стоит ограничиться тем, что я делаю сейчас- перевод простых анимаций, немного наполнение базы карт глубин. Не стоит замахиваться на то, чем уже долго занимается куча илонов масков, гуглов и институтов, будем тихо пилить свой лунапарк с VR и лолями Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я. Там даже большая часть картинок ни разу не была переведена в 3д, только карты глубин, только хардкор. Сейчас в отпуске, к переводу "крученых" артов приступлю затвра вечером, до скорого сеанса сумбурной связи
По поводу шариков, кубиков в пространстве- я очень много читал научных работ по теме обучения нейросетей выделению глубины из двухмерья. Все институты тренируются на 3д рендерах простых, типа тех же кубов и шаров и показывают очень многообещающий результат. Я, как бы, поэтому и занялся тем, чем сейчас занимаюсь, лично увидев, как pix2pi меняет фасады зданий на схему расположения окон. И подумал, почему бы не попробовать. Но вот потом все упирается в выборку- институты используют выборки 100-200 максимум фоток. Это достаточно для определенных задач, но для чего-то нового- нет. На простых шариках и кубиках нейросеть не научить геометрической форме, даже если сначала обрезать цветовые каналы у фото. Да, она будет отличать твои шары и кубы на твоем фоне. Потому что научиться цветам и оттенкам, потому что это проще Как только ей дадут для обработки фото а не компьютерный рендер, она даст глича. Это как просить художника, который всю жизнь рисовал портреты и не встречал в жизни вазы, нарисовать вазу. Или уродство или инвалидность нарисовать, при условии, что он не видел инвалидов- тоже ничего хорошего не выйдет.
Этим летом Нвидия на конференции в сша представит даже технологию перевода видео в 3д с использование обычной цифровой камеры. Они на гитхабе выложили кусок кода, где видно, что видео будет воспринимать по 5 кадров и выдирать глубину из него боюсь сказать неточно, но это вроде интерполяция с использованием смещения разных объектов в кадре Вот эта технология должна, в теории, превратить любую камеру стереокамеру, или как там называется оборудование с множеством светочувствительных элементов для поимики глубины, я еще писал выше про его домашний вариант.
Так вот, о чем это я. Как я уже писал, все эти работы с небольшой выборкой однородных объектов дают предсказуемо хороший результат. Но, стоит группе ученых выйти "в поле" на улицу , как их научная работа подвисает в воздухе. Да, есть определение объектов на дороге (машина, пешеход, знак, дерево, бордюр) на одном несчастном сете картинок, но вот как ведет себя сеть в полевых условиях- скорее всего пиздец за семью печатями. Да что там говорить, даже у оригинального мануала для pix2pix есть фото-глич, гте путина на коне перекрасили под зебру целиком, потому что раньше сеть не обучилась отличать человека от коня- только коня от зебры. Все, что соединено с конем- тоже конь, никаких оригинальных прорывов нейросеть не сделает сама. Она может только автоматизировать сложную рутинную работу, если ей скормить уже много примеров проделанной работы.
Нет, нейросеть нельзя научить чему-то, чего ты сам не умеешь делать в достаточно больших масштабах. На реддите уже есть пара тредов про 3д. Вроде там же или в твиттере обитает автор соседнего анцензора. Он еще спрашивал, чем ему стоит заняться после завершения работы с анцензором, и ему уже подсказывали, что можно попытаться запились 2дto3д, на что он вроде ответил то же самое, к чему я пришел позже, попробовав самостоятельно- не получается обучить сеть без реально огромного количества примеров. Овер 1кк(к). Это потребует аналогичных по цене вычислительных затрат. Даже если каждый нерд на планете переведет по картинке в карту глубин, то все равно у нейросети случится когнитивный диссонанс, когда она увидит, что, например, пара нердов перевели в карту глубин один и тот же арт по разному. Да, в итоге она должна прийти к чему-то более-менее среднему, средне-статистическому. Останется найти только 1кк нердов и их всех скоординировать. Вариант с 3д моделями тоже так себе, если подумать, только если какому-то ученому или инвестору прийдет в голову идея запилить автоматический генератор на коммерческой основе, который будет давать картинку сопоставимую по качеству с д2 но в 3д (после чего необходимость в переводе 2д в 3д отпадает как бы).
Что еще сказать. Не помню, писал ли я про каскады нейронный сетей, типа одна сеть распознает позу человека, другая намечает в комбинации с оригинальной картинкой контуры, потом третяя сеть чуть более точно воспроизводит карту глубин и т.д., в том числе используя не только нейросети, но и старые алгоритмы. Звучит чуть более реалистично, но требует не меньше трудочасов. Вобщем возрадуйтесь, художники, от слова худо- в ближайшее время вас не заменят бездушные машины, энивей.
Так вот, пожалуй стоит ограничиться тем, что я делаю сейчас- перевод простых анимаций, немного наполнение базы карт глубин. Не стоит замахиваться на то, чем уже долго занимается куча илонов масков, гуглов и институтов, будем тихо пилить свой лунапарк с VR и лолями Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я. Там даже большая часть картинок ни разу не была переведена в 3д, только карты глубин, только хардкор. Сейчас в отпуске, к переводу "крученых" артов приступлю затвра вечером, до скорого сеанса сумбурной связи
> Скоро скину тут в архиве результат трудов за полгода- может кто-то сможет ем воспользоваться лучше, чем я.
Видать ты совсем выдыхаешься уже.
> Сейчас в отпуске
Я почему то думал что ты на фрилансе сидишь
уже писал, что можно попробовать сделать 3д модель, которая похожа на нужную 2д и уже работать над ей одной. Для охвата всех вариантов аксессуаров, одежды поз- не хватает, по крайней мере 30.000 примеров, которые я делал в koikatsu, custom maid 3d и еще куче игр, не только хентайных. Там были очень четкие качественные примеры, но все равно, ничего нового модель не выносит из обучения на такой малой выборке. Можно, конечно, попробовать снимать только в одной позе и только одного персонажа со срезанным бекграундом, но про это я тоже уже писал, что тут нужно начинать извращаться с дополнительными ухищрениями типа вырезки фона и потом вклеивания обратно...
>>140832
Не, я просто понял на своем опыте, какая это сложная тема. В доказательство привожу сам архив а также сегодняшнюю запланированную работку. https://www.dropbox.com/s/y7044apa20br948/500arch.rar?dl=0
надеюсь хоть 1 кодировка подойдет, по крайней мере должно быть можно первый ролик сохранить и открыть в плеере
Я не пойму, тебе примеров мало? Что если видео из игор записывать сразу с картой глубины, потом какими-нибудь программами, умеющими работать с пачкой картинок, нарезать все это?
Я это уже делал, программа для выдирания карты глубин-reshade. Да, мало, чтобы сделать универсальный определитель для нового материала. И если примеров еще можно, теоретически, наделать овер 1кк, даже если они влезут на мои 500 гб винта, то чтобы обработать их, нужно месяц гнать на моей карточке. Нвидия свои гонит на 8 картах 5 дней.
И не факт, что параметры, выставленные у нейросети, а именно количество входных и выходных каналов, нейроны и т.д. будут выставлены правильно для такой сложной задачи, может их надо выставлять больше, чем в настройках 1024 на 1024 в сети от нвидии. И может не хватит памяти, и все остановится. А если и запустится, то не факт, что через месяц я получу на выходе работающую сеть, а не переобученное или недообученное хуй пойми что.
Я помню, как делал 10000 скриншотов с картой глубины из одной игрушки, вобщем проходишь до катсцены, чтобы на основной картинке не было интерфейса и хуяришь printscreen, получаешь 600 скринов в час примерно. Меняешь костюмы у героев, и по новой. К катсценам в таких играх, как правило, шорткатов нету, поэтому я проходил с читами по фасту. Я не хочу считать, сколько времени займет изготовление 1кк картинок. Оставляя на ночь какую-то 3д дрочильню с автоматическим скриптом, тоже получаешь 3-5к картинок, всего то годик так пособирать материал, купить пару винтов, обработать за месяц фотки, просто переобрезая их, и вуаля, может через год ацкого труда что-то и получится не факт, не факт. Основывать институт изучения хентая в 3д у себя на квартире я не хочу не имею возможности на самом деле.
Вот тебе в догонку, как делают лицегенератор, там есть таблица времени обучения сети. Да, там датасет 70к, но, по моему скромному личному мнению, у аниме-персонажей количество деталей-поз-бекграунда, всех факторов вобщем, больше, чем у человеческих лиц, значит нужна выборка еще больше. Да и эта сеть наверняка может дать глюков, и, конечно, она ничего особо нового не сгенерирует, типа одноглазого или безухого человека, или выражение лица, которого не было в примерах.
не, там нечего выкладывать, любой может скачать любую дефолтную сетку и запустить ее. И тоже получит ничего, не вышла она, мало исходников. Только для локальных анимаций или для одного типа картинок- типа только стоящие на одном белом фоне или только сидящие фигуры.
А вообще я сейчас делаю из бд данбору сетку на картинки одетый/раздетый. Делаю медленно и лениво, но благодаря тому, что в доустпе есть бд, фотки можно дампать тысячами с несложной ручной модерацией. Может чего и выйдет. Что-то типа дипнудес для аниме.
Я даже представить себе не могу что ты подразумеваешь под
>фулл
в контексте данного треда.
К тому же, тот пост уже довольно старый. С тех пор много чего изменилось да и пирсинг у неё теперь очень аккуратненький, а не те ужасные блямбы которые были у неё полтора года назад.
Держи вот тебе двух других няшечек вместо одной той.
>>141877
>ГРАЖДАНЕ ДЕЛАЙТЕ КОНТЕНТ
Удвою. Раньше конечно я тоже делал сюда контент на основе MMD. Но это до тех пор пока в треде не появились настоящие профессионалы. Теперь, с их приходом, контент на основе MMD думаю уже не актуален.
Разве что если будет реквест или тред будет близок к смытию. Как это иногда было на протяжении его истории.
Привык бампать только с контентом.
Смотря что ты понимаешь под няшечками. Если ты о фуллбоди модельках с полным функционалом то есть чутка.
Смотрел фильм "Мы Миллеры"? Или хотя бы трейлер. - Я тут дури прикупил чутка. Вот примерно столько же.
https://f95zone.to/threads/cats-attacks-seismic.29852/
С хуяли оно работать должно, если я одним глазом могу смотреть?
Согласен, картинка кривая
Но ведь стереоскопия с перекрёстным направлением глаз работает иначе, в отличии от обычного vr, разве нет?
Ну так я без шлема смотрю, скрещивая глаза. Картинка выглядит side-by-side, как и остальные итт.
что за автор? по вотермарке и поиску по скриншоту не находит
От этой тоже глаза немного заболели
Понадобиться 20 минутная практика, по крайней мере мне понадобилось столько, чтобы научиться. Ну вообще, если ты не умеешь делать глаза косыми, то тебе для начала придется научиться этому. Короче ты косишь глаза так, пока из двух картинок в центре не появиться 3 картинка, т.е. ты косишь глаза до тех пор, пока правая картинка не совместится с левой, в то же время те две картинки никуда не деваются, они остаются так же, слева и справа, но между ними образуется ещё одна картинка, которая как раз таки получается объемной из за совмещения этих двух картинок
Когда смотришь как бы через экран это параллельная стереопара, левый глаз смотрит на левое изображение, правый на правое.
Тут все пикчи для косых, это перекрестная стереопара, изображения меняются местами и правый глаз должен смотреть на левое изображение, а левый глаз на правое.
У параллельного просмотра есть большой минус, тебе приходится сильно уменьшать изображение до расстояния между глазами, т.к. ты не можешь развести глаза в разные стороны.
>>153440
Если сложно фокусироваться, попробуй уменьшить картинку или отодвинуться подальше от монитора.
>Если сложно фокусироваться, попробуй уменьшить картинку или отодвинуться подальше от монитора.
Я ему про фому, он мне - про ерёму. Я хотел уточнить, какие есть альтернативы чтобы не прибегать к вашему методу. Секта какая-то. Ладно, мимо проходил и пошёл дальше.
В чем проблема глаза скосить? Можно попробовать в вр очках для смартфонов глянуть, но изображения поменять местами придется самому.
Только что поверил - при расслаблении изображение смещается в ту же сторону, что и при скрещивании. Только в отличие от первого случая, во втором начинают сильно болеть глаза
Как в одну сторону то, если изображения для каждого глаза отличаются? И ты изображение до ~10см что ли уменьшаешь, что бы параллельно смотреть?
> Как в одну сторону то, если изображения для каждого глаза отличаются?
Я имел виду, что для каждого глаза в одну и ту же сторону.
> И ты изображение до ~10см что ли уменьшаешь
Да нет, как обычно телефон держу где-то в сантиметрах 25 от лица
Первый пик нормально смотрится, от последнего глаза болят
есть два способа косить глаза, как и два типа стереоизображений. В одном из них нужно косить глаза к центру- первый пик, если я не ошибаюсь. Второй тип- наоборот- разводить, фокусируясь вдаль, последний пик. Такие изображения также используются в стереошлемах. Каждый косит сначала по-своему, сложно переучиться с одного способа на другой. Есть такие абстрактные стереограммы, которые и рассчитаны на то, что их можно смотреть обоими способами и будет например высоченная гора и глубокая яма.
Также попробую для ускорения обучения не только менять расстояние от лица до монитора, но просто менять масштаб изображения- глубину будет проще поймать на малом размере изображения, постепенно увеличивая приближение
Да, могу путать параллельное с перекрестным, извини.
> Первый пик нормально смотрится, от последнего глаза болят
пиздец, у меня наоборот от перекрестного просмотра глаза не болят. а вот параллельный никак осилить не могу
> пиздец, у меня наоборот от перекрестного просмотра глаза не болят. а вот параллельный никак осилить не могу
То есть тебе лучше вино четвёртый пик? Пиздосики
Не знаю, но ведь тут же все пики как первый
У первой гораздо круче эффект 3д. А на последнюю смотреть проще, глаза не так напрягаются.
у меня получается на любом максимум на котором я смотрел - расстояние вытянутой руки до монитора, но чем ближе, тем сложнее косить глаза
Есть какие-то плееры для проигрывания VR видео. Скачал Var'S, и он даже позволяет головой вертеть в разные стороны, не знаю как это работает. С сильной задержкой конечно, но всетаки.
А как скачивать видосы с ютуба, чтобы смотреть потом через этот плеер? Скачивал через youtube-dl, какая-то мозайка скачивается (пикрелейтед).
Откуда можно скачать нормальные ммд потанцульки и прочее, и чем посмотреть если телефон не может в вр?
а есть сайт, где можно скачать модели, сцены(задний фон в виде комнаты как у тебя)?
Не разу не мог туда попасть после ввода подтверждения через вк, хотя вк есть. Надо будет заморочиться.
Это только в России такое спрашивают, возьми какой-нибудь бесплатный USA прокси и зайди
Да, и не один. Загугли:
MMD Stage Dl
И будет тебе счастье.
Большая часть из тех что у меня скачена с deviantart и с NicoNico.
>>154659
Если не стерео а обычные х-ммд то чекни тот тред>>72206 (OP) пока его не смыло. А то он уже близок к смытию.
Хотя может ты его и так видел.
>>156240
Тредик живёт. Не волнуйся. По меркам тематики вполне себе живой тред.
>>156294
Пустые бамбы в тематике, тем более через два дня после последнего сообщения, в треде где много ориджинала бесполезны во всех случаях кроме единственного - ты решил скатить тред в бамплит побыстрее. Тред и без бампов может тонуть полгода, или дольше.
А то недавно узнал тут такое https://danbooru.donmai.us/posts?tags=chromatic_aberration
И
https://danbooru.donmai.us/pools/14571
>When chromatic aberration lives up to its bad reputation of being overly abused, and makes viewing a picture straining and painful on the eyes.
Сказать, что меня это расстроило, это не сказать ничего.
Вы ебанутые? Нахуя? Это ведь тоже самое изображение. Умею косить, но смысла не понял.
Там появляется объем, если картинку качественно сделали и если ты косишь правильно
Как такую анимацию сделал? Сам эффект объема слабенький, лицо плоское, будто только грудь, руки, фон и остальное всего на нескольких слоях находятся.
> то чтобы обработать их, нужно месяц гнать на моей карточке.
Можно заюзать облака от гугла. Точно знаю, что гугл предоставляет ресурсы для НС. На этих облаках кто-то умудрялся даже блендер закомпилить, запустить и заставить рендерить видео.
Если бы эта тема была никому не интересна то в треде не было бы столько ориджинал контента.
Просто кроме этого треда есть и другие, которые ниже по каталогу и куда можно сделать что то, в той или иной степени, оригинальное.
Обычно делаю в этот тред или по реквесту или когда он во третьей трети калога.
Автор этих постов с ориджиналом>>79870 >>79954 >>80007 >>80179 >>82021 >>82084 >>82416 >>87414 >>97465 >>105303 >>107298 >>107694 >>108014 >>108131 >>108488 >>108490 >>109335 >>118274 >>149760 >>150103 >>153043 >>154581 >>154628 >>156499 >>158525 >>164456
И некоторых других, где просто перепосты с других ресурсов.
>>165860
Я её не делал. Я её с какой то буры прихватил.
Спасибо
Может искать по тегам стереопара или как то так. Или Гуглить.
Я сам делаю.
Ещё пара - тройка анонов выше тоже сами делали.
Так и делаю, всё равно не густо, мб кто сайт тематический делал
Эта нейронка может сделать из картинки .ply модель. Может кто поиграется с модельками в блендере?
Годно