Это копия, сохраненная 11 октября 2023 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.
Прошлый тред: >>6557316 →
Драйверы: https://www.amd.com/en/support
Для чистой переустановки драйверов: https://www.amd.com/en/support/kb/faq/gpu-601
Гайд по установке драйверов: https://youtu.be/2buahsPjz6k
Гайд по настройкам Adrenaline: https://youtu.be/019ybrEnbHw
Гайд по кастомным драйверам: https://youtu.be/caboZ4RZVXQ
Ещё один гайд по кастомным драйверам: https://forums.guru3d.com/threads/amernime-zone-amd-software-adrenalin-pro-driver-release-discovery-22-12-1-whql.436611/
Для тех, у кого видеокарта не сбрасывает частоты без нагрузки: https://youtu.be/xhWfShsy_Bk
Отключение аппаратного ускорения видео в Firefox: https://justpaste.me/Xdp71
Отключение MPO для устранения мерцания и статтеров: https://forums.guru3d.com/threads/disabling-mpo-multiplace-overlay-can-improve-some-desktop-apps-flicker-or-stutter-issues.445266/
Подробный обзор адаптивной синхронизации FreeSync: https://youtu.be/fzFlbOu6GL8
DLSS vs FSR 2.0: https://youtu.be/s25cnyTMHHM
Подробный обзор 6800/6800XT: https://youtu.be/To3lBaTHijE / https://youtu.be/fTe0_bdDnCE
Подробный обзор 6750XT: https://youtu.be/Lg-TcVrh8rA
Подробный обзор 6700XT: https://youtu.be/bt_6H0BntvY
Подробный обзор 6650XT: https://youtu.be/dIohkbd--l8
Подробный обзор 6600XT: https://youtu.be/0qTemZpqoMQ
Подробный обзор 6600/6500XT: https://youtu.be/0cc5bSIsquM
Разгон и андервольт 6500XT: https://youtu.be/jxSLrvoejhg
Разгон и андервольт 6600XT: https://youtu.be/raNwvQHPm_U
Разгон и андервольт 6700XT: https://youtu.be/hOKaEKdusZQ
Разгон и андервольт 6950XT: https://youtu.be/Y9xQTEsfSeE
А я все таки перешёл на нвидию и охуел как все пиздато. Советую попробовать через силу.
Попробуй disable mpo в гугл
Я не дам кожанке двойную цену за бесполезные лучи
Ушел с ноувидео на амд, особой разницы не заметил.
Хер его знает, если четно. Попробуй какие-нить legacy дрова поставить, у амд должны быть старые на сайте.
Есть вариант взять за примерно €350, новую само собой. Стоит ли оно того, или уже хуйня и морально устарела?
Конфиг - r5 5600, 32 ram, b450, моник 2560х1080
Стоит брать, не устарела
которые жрут как не в себе. а 6700 xt топ карта по цена-производительность без конкурентов вообще(если речь про игры).
Честно, не хочу видюху от кожаного.
Но блядь, вижу вот такие проблемы у амд и чисто вахуе и сразу думаю: а может всё-таки хуанг? Ну ёбаный ворот, 2к23й на дворе а у амд вкладки в браузере мерцают! Ёбаный стыд.
Пиздец просто 0 инфы, называется купил карточку, а пердолиться даже не знаю в каком направлении, скучно.
Если ты не совсем хлебушек и знаешь как работает винда +- то проблем с видяхами от АМУДЫ у тебя не будет.
В основном вся хуйня идет от конфликтности дров и служб виндоус. Вспомнить те же проблемы с обновлением дров от самой виндоус, когда ты этого не хочешь, такая проблема устраняется в 2 клика.
Я вот как купил тоже думал буду пердолиться жестко, а по факту решение проблем с дровами для меня оказалось не сложнее чем условный разгон оперативки с подбором правильных таймингов, даже легче намного, просто отключил пару служб и всё.
>Почему по XFX 6900XT так мало инфы в инете? Посмотреть бы какие то гайды по даунвольтингу именно на этой карточке
А ХФХ тут при чём? Они все одинаковые в этом плане.
Я по умолчанию пробовал и с андервольтом, проц не гнал, что за рама не знаю. Температуру не засекал но обычно 50-60 в требовательных играх
У меня XFX 6800 этой серии. Без андервольта по умолчанию греется до 90 по хотспоту(и крутит вентиляторы на 1200 при такой температуре), после где-то 75-80.
Вылеты были в игрушечках какие-то рандомные, уебанские.
Оказалось оперативочка кривовато была разогнана кекш (при этом 1070ти нормально работала и не выёбывалась, хехмда).
Так вот, теперь всё работает, всё заебись. Карта АХУЙ, секси. Балдею. Но она громная шопиздец и проводочки от бп еле-еле дотянулись до коннектеров питания.
ВНИМАНИЕ ВОПРОС:
Есть аноны которые пользуются удлинителями для проводов БП типа пикрелейтед? Ничего не ебанёт у меня если такую жирную карту подключу ими?
Брат жив, все работает.
Ничего не ебанёт, юзай на здоровье.
Я вот хочу с криповй поебаться вентиляторов но не знаю как правильно настроить
У меня она как будто в пассив режиме работает, я ваще вентиляторов не слышу и на хотспоте где т 85 градусов максимум, а когда кривую вентиляторов трогаю то шум значительно прибавляется.
Поэтому оставил по дефолту.
Не знаю, как на 6900xt, т.к. она прожорливее в 2 раза, но на 6800 у меня так и меня устраивает. Стоп-фан выключил, потому что вентилятор все равно не слышно на минимальных оборотах.
Анон, поясни за разгон памяти, как сказывается на фпс?
Тут соглы, не предлагают ничего кроме фср а денех просят -50$ от курткиного говна
В основном вдали, еще они будто сжаты, в 720п.
Хули делать? Всё на максималках
анизатропную фильтрацию в дровах потыкай
В каких играх, где, покажи на скриншоте. Какой ответ ты хочешь получить если даже вопрос нормально задать не можешь?
Так блэт. Опять словил идентичный баг. При загрузке появляются артефакты по типу пикрил. Вот ксати моя старая история >>6482673 →
Ту карту я сдал и с новой тоже самое. Тест dmgg.py показал ошибку в 10й банке памяти и адрес памяти совпал точь в точь с предыдущей картой. Думаю это всё таки моё остальное старое железо виновато. Ну не могут 2 карты иметь такой идентичный брак.
У меня начала глючить карта, я решил обновить дрова, случайно залез в панель управления и обнаружил, что дду нихера ничего не удалил из нвидии, несмотря на все галки, т.е. все Nvidia display driver, physx etc, всё так и осталось в системе. Потёр вручную, перезапустил дду, установил новый драйвер, всё норм.
Не, она в одной только игре глючила (Mafia II). Может, там даже какой-то солюшн есть для этого, но я не смотрел. Так-то всё остальное работало нормально, даже с нвидиевскими остатками.
Это очень сильно зависит от тепловыделения GPU, конкретного экземпляра GPU, качества системы охлаждения, качества сборки видеокарты. Разница может достигать 25 градусов в наихудших случаях.
Известны случаи некорректной работы системы охлаждения в корпусах с вертикальным расположением видеокарты.
Ты просто не можешь перестать думать об ашотовски хуях, они тебя настолько возбуждают?
72 градуса это "греется"?
Это нормальный температурный режим, до 80 она у тебя никогда не дойдёт, как не нагружай.
Да, абсолютная норма.
Если сильно напрягает - можно частоту снизить. На 2000МГц будет в районе 80 градусов. На 1500МГц энергопотребление падает ниже сотни ватт и даже вентиляторы можно не включать.
Что за версия у тебя такая?
У меня была мсина MECH 2X, в свое время самая дешевая из всех, так я её вентилей не слышал никогда, даже в нагрузке.
Вообще в случае 6600 там охлаждать-то нехуй, она не жрёт и не греется особо.
>Ласт Оф Ас парт 1
Это неоптимизированное говно сейчас любую карту на максимум нагружает. Я б андервольтнул.
Нет, дороже. Там есть черная, она немного дешевле.
может это тогда корпусные/куллерные винты, но я тоже туда не лез
Там в адреналине есть автоандервольт, можешь его попробовать для начала. Плюс андервольтить через адреналин всё равно можно в небольших пределах только. Как правило, максимум что может произойти - фриз/краш игры, но это легко корректируется сбросом на дефолт.
Можешь помониторить с крышкой и без, хотя я думаю что при нормальных кулерах в корпусе разница будет небольшая. Пыль всегда летит, я периодически продуваю сжатым воздухом (выключенную систему, естественно). В районе 75-80 температура норм в требовательных играх, плюс те, что ты упомянул, "славятся" прожорливостью.
Провода чуть длиннее, чем на стоковых, что удобно, стоковые впритык сидят. Установил, потестил, работают тихо, вроде как всё как у стоковых. Цена вопроса 26 USD за комплект с али.
У моей MSI Gaming Trio кожух легко снимается сверху, достаточно открутить 6 винтиков по краям под кулерами правда, у меня 1 винт был перетянут, пришлось шуруповёртом крутить и потом менять на другой. Сами кулеры тоже легко снять, они на 3 винтах и эти винты видно.
Ок, посветил фонариком, увидел. Похоже MSI не стали заморачиваться и сделали 6800 и 6900 абсолютно одинаковыми. Отлично, теперь я знаю что буду делать когда загремят вентиляторы.
У них, по идее, на 6800/6900/3070/3080/3090 должны быть одинаковые кулеры и одинаковые либо очень похожие кожухи.
Я думаю нет смысла зашивать новый биос ради 70 мега герц
Это последние дрова, где это меню работает. Если не хочешь откатывать, можешь попробовать настроить карту через MorePowerTool
Отделом*
Судя по делам нвидии, амд ещё и им напасывает
>Они там всем софтверным отделам шмаль долбят
На Линукс дрова хорошие, остальные видимо не справляются.
Сверхвысокое разрешение
dxvk
У меня же максимум разгона это 2500 мин и 2600 макс, при этом видяха шумит как пылесос и греется до 77°, еще в некоторых играх все равно почему то меньше 2500 частота.
Почему так?
Алсо даже когда видяха загружена всего на 60-80% она все равно греется до 75, я думал нагрев начинается со 100%, почему так?
Неудобные вопросы.
>когда видяха загружена всего на 60-80% она все равно греется до 75, я думал нагрев начинается со 100%
Это так не работает. Минимальная частота это всего лишь указатель и не учитывает работу функций энергосбережения. По сути без отключения этого самого энергосбережения данный ползунок делает... ничего.
Ты серишь.
>я думал нагрев начинается со 100%,
Нагрев начинается когда видяха включается, просто чисто радиатора хватает чтобы отводить тепло, когда нагрузка невысокая. А когда видяха разогревается до определенной температуры, то включается вентилятор.
>я запрещаю видеокарте греться при загрузке ниже 100%
Хрюкнул.
А вообще нужно больше инфы, небось у тебя гроб гроб кладбище и самый хуёвый вендор когда у хуя с ютуба топ жир и открытый стенд. Ну и долю везения никто не отменял, к примеру когда сидел на 480 она андервольтилась примерно никак.
На а хуле ты хотел. Всё, что выше заводских параметров это чиповая лотерея, особенно в бюджетном секторе.
И даже без аппаратного ускорения не все так идеально
У кого так было, как фиксили? Откат к прошлой версии драйвера не помог, уже даже мысли есть, что карта ломаться начала и так какой-нибудь начинающийся отвал сказывается. В едже тоже самое, но он тоже на хромиуме же
Ну знаете когда стабильно 70+ фпс и стабильно микрофриз когда совершаешь какое то действие, если просто бегаешь не фризит
Да был такой кадр, вахтёрил по кд несколько тредов. Всё ныл какие АМД плохие, жаловался как у него всё ниработаит и нипаиграть. Свои фантазии подкреплял боевыми картинками, чужими скриншотами, оскорблениями и откровенным враньём. А потом выяснилось что сидит Тимурка на зионе с алика и майненом джокере, а современное железо видел только на картинке.
Если у тебя есть проблема - доставь точное описание, скриншоты, вебмки. Может кто поможет а может и нет.
Не будь Тимуркой.
Был ещё нижний вариант, но это вообще нонейм какой-то, да и в продаже уже месяц как нет, пока я барыши на неё собирал лол.
От качества кристалла зависит, у меня была r9 280x БУшная кривая которая держала заниженные частоты при повышенном напряжении, крч полутруп
>при этом видяха шумит как пылесос и греется до 77°
От исполнения зависит, если радиатор большой с большим количеством теплотрубок и хорошим прижимом, про этом у видюхи 2-3 кулера (на 6600 не помню 3х кулерных, т.к младшая модель) то шуметь будет меньше.
>я думал нагрев начинается со 100%
Если если говорит про причину нагрева - выделение тепла на сопротивлении, то оно возникает при малейшем токе и напряжении, но если ты имеешь ввиду нагрев до существенных температур (65-85°), то все зависит от модели видеокарты, исполнения охлаждения, продуваемости корпуса, некоторые карты при нагрузке в 100% будут холоднее твоей, работающей на 60-80% потребляя больше энергии.
Покупатели амд картона это 90% залетные вроде тебя, которые хотят острых новых ощущений за меньшие деньги. Есть деньги бери 4070ти, нету бери 4070. Для 2к норм
Не уверен, т.к. топовые карты 6700 и 6750 идут с 3 кулерами. На 4К температура около 90-95 градусов. https://www.newegg.ca/msi-rx-6750-xt-mech-2x-12g-oc/p/N82E16814137735
Если бы ты не в РФ брал, то можно было бы (замена по гарантии), а так хз.
4070 оверпрайс кал, отвечаю как владелец 3070. Из текущей линейки 4000-х только 4090 и норм. Если тебе лучи и длсс не нужны, 6950хт норм опция, особенно если ты проц обновишь. У амд 7000 серии будут преимущества, когда больше разработчиков перестанут балду пинать, т.е. нескоро. Опять же, вопрос переплаты - в Штатах я бы взял 7900хт, а в РФ разница в цене наверняка намного больше.
>отвечаю как владелец 3070
АХАХХАХ, оу май.
3070 - самая неудачная карта среди 10-40xx линеек. Ибо это тупо оверпрайснутая 3060ti. А вот 4070 - годная карта за свою цену, ибо 12гб уже и неплохой чип.
4070ти же - говнище. Но с 3070 по уровню бесполезности всё равно не сравнится.
Да 4070 я вообще даже не рассматриваю за вариант. Это же просто фейл какой-то. Лучи не нужны. Игр интересующих с каждым годом все меньше. 6950xt ASrock Phantom можно прям щас в днс купить с гарантией 3года за 63к. Только из-за этого обратил на нее внимание, изначально планы были на 7900xt. Но если взять 6950 то бонусом можно и проц купить в ближайшее время. Спасибо за ответ.
Сапфир. Проц нужен для говноигры с ботлнеком в проце.
Не хотелось бы конечно. При сносе неделю потом накатывать как было.
>При смене железа всегда лучше чистую винду накатывать
Это какие-то бредни времён Windows ME. Всё без проблем чистится.
Кто-то любит винду вилкой чистить и потом с рандомными проблемами ебаться, а кому-то проще сразу винду переустановить.
Жиза, поставил новую карту взамен старого джокера. Были бсоды, но то старые связанные с хуевым сата проводом и не очень стабильным разгоном. В итоге все работает, но на всякий случай просто через дду подчистил гейвидевские драйвера.
https://www.dns-shop.ru/product/b5afb654288b3330/videokarta-gigabyte-amd-radeon-rx-580-aorus-gv-rx580aorus-8gd/?utm_referrer=https%3A%2F%2Fwww.google.com%2F
Подскажите толщину (штангенцирккля под рукой нет)
Ага, бредни, а потом прибежишь с жалобами почему у меня хуйнянейм крашится/не работает/бсоды опять амуда говна в штаны залила. Зачем играть в рулетку?
Не, 4к не нужно. Даже 2к не нужно.
Я с нынешней всю дорогу вообще ничё не делал - ни вентиляторы не настраиваю, ни напряжение, пятый год может потеть на 65-70 градусах, проблем не возникало. Насколько остальные вендоры так же хороши как Асус? Вот эта ебля с андервольтами и прочим у них обязательно входит в комплект?
>замена по гарантии
В смысле, там написано 3 года гарантии, что не так?
>>561869
Нормально ставишь нормальную версию винды (чистый образ MSDN, LTSC и.т.п.), не забываешь удалять старые драйверы и никаких проблем. Я три карты на своём ПК переставлял за последние годы (980/3070/6800), никаких проблем при минимальном участии мозга. Винда десятка корпоративная LTSC, все дрова кроме видях "автоматические". Перестановка была актуальна лет 20 назад, до XP и 7.
я удалял нвидия проги все, физикс тоже и тд, потом удалил все папки с названием нвидия, перезагрузил, вынул карту, вставил картон и начал баловаться в игрульки
Асус был хорош, но в последние лет 5 скурвился с техподдержкой и связанными проблемами. Сейчас обычно советуют мси, сапфиры, всякие нитры и прочие не асусы. В твоём случае я бы взял мси, а вообще можешь глянуть тесты обеих и посмотреть, у какой холодней чип и меньше проблем. Картам уже 2 года минимум, так что вся инфа есть. С гарантией в РФ могут быть траблы в будущем, если поставщики перестанут ввозить на замену, так-то возврат денег никто не отменял пока.
Андервольт и прочее это на любителя и обычно для топовых карт, не думаю, что 6750 будет дико греться.
у меня при аппаратке графическое ядро скачет в потолок и кулеры иногда завывают внезапно, что вкл что выкл подлагов нет, делай чистую установку, кури гайды по настройкам, либо ставь только драйвер без адреналина если неосилятор тонкостей
Нихуя не помогает, откатывал дрова, делал чистую установку, только драйвер ставить не хочу, так как мне нужен адреналин
Кто еще решал проблему лагов с аппаратным ускорением?
1 удаляешь в безопасном режиме дрова через ddu.
2 ставишь дрова черз обновления винды
3 вы великолепны.
мимо на 6700. моргал переодически экран, пропадал/становился едва видмым курсос в поле ввода в брузере и вот это вот все. выше перечисленным пофиксил.
Два чая этому эксперту.
А когда в Хроме настройки открываешь, и вылетает браузер, потому что ВНЕЗАПНО драйвер USB 3.0 не той версии - тоже амд виновато?
А если у меня энвидия?
Если честно, хром самый глючный браузер из всего, с чем я имел дело с 2001 года. Тот же эксплорер хотя бы честно показывает, что не может. А хром вроде как работает быстро и даже эффективно, а потом вылезает непонятно что.
Идея норм, но учти, что прокладка должна быть однослойной (я не говорю, что ты планируешь листы складывать, просто напоминаю), сдавленной хотя бы немного, и бэкплейт может начать перегреваться, соответственно подумай над охлаждением (хотя может и корпусного хватить). Также глянь, может там сквозь этот воздух что-то продувается, т.е. эти промежутки могут быть не просто так. У меня на RX6800 бэкплейт пластиковый, так что со своим не могу сравнить.
https://www.youtube.com/watch?v=sprxQh7zDY8&t=47s
Потыкал драйвер - это радеон чилл или шарп 100%, убрал сразу оба и стабильно 65 фпс. Что за пиздец? Срадеон чилл стоял 72 и 72
Пусть жрёт, тебе жалко чтоли.
Универсальное средство мониторинга плюс некоторые отладочные функции. Очень удобно и полезно. А фпсы чё - их много, одним больше одним меньше, какая разница.
Я и есть анон с 6600. Осознаешь психологический эффект когда у тебя 59 фпс вместо 63?
Я там не сижу, можешь коротко?
Глупости, не будет там такой разницы.
Все фичи радеона создают статтеры.
Началось, блядь. Я всегда хвалил радевоны, но, ебать твою мать, сука. Первый видос - запись экрана, второй с мобилки. Сдавать эьу залупу по гарантии? Я скидывал настройки, отключал hdr - нихуя. В играх пока нет, а вот на рабочем столе нет-нет, да на полсекунды может вылезти. А может и нет, а может, пошел я нахуй? Как меня это все заебало. Жаль 14 дней прошло, вернул бы нахуй.
хуя ты обосраная чушка. если только на экране монитора то это дерьмовый провод или твой монитор собирается сдохнуть
Мразь ёбаная, монику пара месяцев, плюс на дискретной карте нет такой хуйни, черт ты ебучий, красножопый выблядок.
Пошли вы нахуй, пидары, я с компами уже давно не дрочился и не горю желанием, поэтому и написал в тред, скотоебы, сука. Кароч, видимо мне в моник за 40к положили хуй за щеку вместо норм кабеля, который нихуя не может в 144герца, но на 120 такой хуеты нет. Сука, моник мне так же в hw посоветовали, блядь.
>Отключение MPO для устранения мерцания и статтеров
Это твоя база? Эта хуета в моем случае ни к пезде, ни к жопе. Один хуй карта говно ебучее, блядский сапфир который жрет 160-170 ват в пике и нихуя не андервольтится толком. Сдал бы нахуй этот кал говна и взял бы 4070, блядь, но уже не могу.
AMD FreeSync включен? Попробуй отключить.
Драйвера попробуй другие установить, сделать чистую переустановку с полным удалением через DDU
>AMD FreeSync включен? Попробуй отключить
И мне здесь говорят, что трабла не в амуде. Спасибо большое, в этом весь трабл. . Сука, два варианта работы и оба пидарасят. В итоге, либо без синха, либо 120гц, вместо 144. Здесь есть кто с 144 и фрисинхом, можете расписать как у вас? бомжи ебучие откуда у вас вообще что-то кроме амд говна
>твой кабель хоть поддерживает эти 144?
Как узнать, что он их не поддерживает? Это, блядь, родной кабель, схуяли он не должен их держать?
может производитель пидорас и положил кабель максимум на 120. У тебя же моник и 120 и 144 поддерживает, ну вот он и обеспечил тебе китай-кабелем
В чем выражается это не тянет? Я вот, жопой чую, что купив пиздатый дисплейпорт НИХУЯ не поменяется, кроме того, что я проебу пару тысяч. И как ты объяснишь отсутствие артефактов при отключенном амд синхе? Тоже кабель хуевый?
просто лизка увидела какой ты лох и сказала инженерам чтоб они твою карту сломали и ты батхертил всю оставшуюся жизнь от амуде
Така Лиза сука
Короче это я, я удалил папку с порнухой и краши прекратились. Видимо мои 500 гб сосиди малы и это как то влияет на работу системы хотя свободно было 150 вроде из этих 500
> блядский сапфир который жрет 160-170 ват в пике и нихуя не андервольтится толком
Прогнал амд-тест, 140w, 1120 напруга. В киберпердеже было в районе 120-130, других ааа рыготин нет. Не понимаю подрыва абсолютно. Не едет ниже 1145 вообще никак? Ну хуёво чё, лотерея же.
Касательно НАЧНОВА СВЕТА - потыкал туда-сюда, всё норм, дрова 22.11.2, тоже сапфир если важно.
>>563670
>Играл в пое
У меня оно крашилось в хайдауте пока стоишь афк на прошлой лиге. Пока на картах с любым обмазом - 0 реакции, кроме проца в сотку разве что кек.
>Не едет ниже 1145
1140 максимум, дальше только частоты понижать. Да и в целом, нихуя не меняется.
Ну вот нихуя, в стоке в хевене ватт 195+-5 было, а так 140, вполне себе, да и хотспот холоднее заметно
Очевидные косяки с кабелем очевидны, по любому сидишь с дешманским комплектным кабелем, который шел с монитором.
И дай угадаю, это был HDMI, лол.
Появился ли какой-то нормальный способ дешево избавиться от писка? Перепайка этих катушек выйдет как остаточная цена говнокарты. Проломить и залить смолой вообще без вариантов там корпус коробочек толстенный и если что я просто снесу полкарты.
И главное чем заливать чтоб гарантированно перстало визжать. А то если залью не тем и не до конца то потом только выкидывать.
Попробуй ветиляторы радиатора процессора переткнуть в 3 пина. Так шум вентиляторов будет заглушать шум видеокарты
> устроит пробитие когда услышит
Не устроит и не услышит. Куча народа вообще на подобную срань внимания не обращает и правильно делают, к слову и только небольшой процент особо привередливых, вроде тебя, кривят ебало, но таких ещё поискать надо.
Просто выкидывай на авито, купят и ещё спасибо скажут.
У меня греется до 90 градусов при потреблении 400-410 ватт. Конечно тот еще обогреватель.
Послушай, я отлично представляю как могут звучать дроссели в худшем из сценариев и даже при таком я бы постеснялся называть это "визгом". Но ты, видимо, тонкая, чувственная натура, для которой подобное абсолютно непереносимо и неприемлемо, таких я тоже встречал. Именно потому я предлагаю тебе продать видеокарточку - и деньги себе вернёшь и какого-нибудь более вменяемого человека осчастливишь.
>я отлично представляю как могут звучать дроссели в худшем из сценариев
Тебя ждёт много чудесных открытий.
Дахуегознает. Может там реально всё плохо. А может очередной тимурка тред засирает.
Мне в 2010 году заменили по гарантии Radeon 4890 со свистящими дросселями. И в 2015 попалась отвальная 9800GTX, тоже перед смертью свистеть стала. А сейчас это вдруг стало нормой.
Основная причина - массовое внедрение агрессивных режимов энергосбережения и крайне высокое энергопотребление, это накладывает очень серьёзные требования на систему питания видеокарт. Поэтому малейшие инженерные недоработки, экономия на компонентах и дефекты сборки приводят к печальным последствиям. Похоже производители просто не в состоянии обеспечить необходимый уровень качества за вменяемую цену. Так что писк дросселей с нами надолго, особенно в топовых решениях.
Если речь не идёт об откровенном браке или поломке - можно, как уже говорилось, отключать энергосбережение и занижать частоты\напряжения. В видеокартах прошлых поколений до RTX3000 и RX6000 включительно это пока ещё возможно без ограничений, в новых RTX4000 и RX7000 ситуация хуже. Ну или как вариант абузить систему и перебирать видеокарты в поисках более-менее нормальной, как вон тот "акустически настроенный человек".
Пиздец, лучше бы 4070тибу взял, сука.
Погоди погоди. Как выйдет, высруться тесты, тогда и бугурти. А то окажется, что на 4090 будет 50 фпс.
Лучи.
Ну поляки тоже приравняли 7900ХТХ к 3080 в киберпуке... без лучей. Только вот в реальности 7900ХТХ без лучшей в разгоне 4090 догоняет.
>думал, что к монику за 40к совсем уж говнища не положат
Они кладут одинаково говенные кабелюки в комплект к любому монитору, и "они" это не только LG.
В любом случае их приходится менять на DP, с ним ты точно бед знать не будешь.
Да? Ну, если он мне на пол не накапает из этой доменной печки, то ок. Просто для 570-й этого "темп. перех. гп" вообще не было, первый раз увидел, обосрался.
>Просто для 570-й этого "темп. перех. гп" вообще не было
Ну да, потому ты и не срался с таких цифр, а если бы это значение там отображалось, то ты бы примерно столько градусов бы там и увидел, если не больше.
У DP тоже есть интересные баги, и они не всегда связаны непосредственно с кабелем.
До 110 норма
С багами DP сталкиваться не доводилось, даже на высоких разрешениях и герцовке, а вот в случае с HDMI уже всякого навидался, так что если они и есть, то вероятность их проявления сильно ниже.
> экономия на компонентах
Это прежде всего.
> перебирать видеокарты
Есть подозрение, что в 7900хтх с той или иной интенсивностью пищать будут все. Тихих просто нет. Сам слушал 2, спрашивал в инете и тредах здесь, у всех пищат. Просто кто-то коупил, мол из-за вентиляторов почти не слышно, а в наушниках вообще класс.
ну вот смотри есть разные версии hdmi и displayport. Попробуй на кабеле посмотреть, там обычно пишут. Ну а так ты купил амд.
>ты купил амд
Можно подумать эти HDMI траблы только у AMD, пока у меня была 2080ti я точно так же охуел, когда по комплектному HDMI кабелю подключал к ней свою новенькую лыжу 32GN600. Мало того, что по этому кабелю больше 144 герц не получить что логично - ограничение спецификации, так ещё периодически ловил черный экран с ним при этой герцовке. Поменял кабель на DP и всё как рукой сняло, получил свои 165 герц и никаких больше черных экранов.
>по комплектному HDMI кабелю подключал к ней свою новенькую лыжу 32GN600
Но у 32GN600 в комплекте дисплейпорт-кабель.
https://www.dns-shop.ru/product/9507d9dec0bc1b80/315-monitor-lg-ultragear-32gn600-b-cernyj/characteristics/
>Комплектация
блок питания, документация, кабель DisplayPort, кабель питания
Зачем ты пиздишь?
1920x1080, 0:02
Макс настройки
>Ошибка
Нет, не ошибка, и в комментариях про кабель ничего нет.
У меня такой же монитор и там в комплекте дисплейпорт.
На фото в дноэсе дисплейпорт.
Ещё раз: зачем ты пиздишь?
Он из Казахстана.
Охуеть, что значит "камера покачивается"? Ты в игры не двигая мышкой играешь? Такая проблема не только в апексе, вот дезлупу скачал там так же
ретард с мерцающим моником сново итт. Поковырялся в коробке и увидел, что там еще пару кабелей, среди которых был и дисплей порт. Теперь у моника частота 165гц и нихуя не артефачит. Зря ток говнился на анонов. Мне уже пиздец как страшно, насколько сильно я отупел к своим-то годам.
Я, конечно, всё понимаю, но давай дождемся тестов. Системные требования обычно пишут пяткой левой ноги.
> бенчмарк хуйня которая фпсы жрет
Можешь ставить только RTSS, а на afterburner хуй забить. В таком случае как раз весь мониторинг отвалится, но лок фпс будет штатный
Да опять пидорские лучи бесполезные накатили и зачем то в рекомендуемые засунули, а у нвидии апскейл с 128х128 делается и заебись в мыло играется хоть на ртх джокере.
> Покопайся в настройках графония игры.
Там блять только одно сглаживание.
Ну пиздец где все адепты амудешные, че языки в жопу засунули как вам пруфы ваших говнодров завезли
1920x1080, 0:03
У меня никаких проблем в играх нет, по крайней мере в моих, в тех что я играл. А качать и проверять как там в дезлупе честно впадлу, звиняй, нет настроения.
Настройки в дровах пикрил:
Тем более норм. У меня в районе 65-70 на 6800 с тремя.
5700XT с патчем для амд уже плохо вывозит, да и игры всякие интересные выходят с охуевшими требвоаниями...
Брать 7900+ или на нвидию перекатываться?
Ну что, анонсы, куда сам сядешь, а куда Лизу Су посадишь ?
В чем смысл?
NVENC 3 поколения ТОП
Амуда как всегда кривая до неюзабельности
Хотя топее топа конечно энкодер от интела в ARC
Коэффициент фпс/ватт лучше. Условно, если у тебя карта потребляет 100 ватт и выдаёт 100 фпс, то с андервольтом она у тебя будет:
выдавать больше 100 фпс при потреблении в 100 ватт
или
потреблять меньше 100 ватт при ограничении в 100 фпс, естественно также упадёт выделение тепла
Потому что ты криво андервольтнул.
В идеале карта на том же поверлимите может меньше греться и выдавать больше производительности.
> положняк по нейросеткам с радевоном - тот же стейбл диффужн?
Ну я у себя развернул с 7900XTX и оно работает.
Насколько хорошо сказать не могу, ибо не с чем сравнить.
Но 24гб ей мало, даже 1024х1024 нагенерить не может, правда я и не разбирался особо с настройками и прочей хуйней
да нет просто производитель пидорас
Почему не на 1 фпс?
> В идеале карта на том же поверлимите может меньше греться и выдавать больше производительности.
А вменяемый гайд для тупых нубасов существует в этой вселенной?
у большинства задержки при -3 меньше
Ставишь частоту ядра, которую хочешь, а потом снижаешь вольтаж с условных 1200 мв до 1150 мв, играешь/прогоняешь тесты, если стабильно, то еще уменьшаешь вольтаж, если нет, то повышаешь вольтаж на 10 мвт.
Как только стало стабильно и работает без вылетов драйвера, то накидываешь 5-10 мв сверху на всякий
Чем лучше тебе попался чип, тем больше сможешь андервольтнуть
В инете гайдов полно
Тупо ползунок максимальной частоты GPU на 500 влево и всё, остальное можно не трогать. -20% производительности и в два раза ниже энергопотребление. Такой вот эко мод.
Привет аноны, помогите с ошибкой pa-300 на rx574 сапфир
выскакивает pa-300 после ресета, но не всегда, процентов 80 шанс на слет драйвера. Пробовал запретить автоапдейт через systempropertiesadvanced.exe и почистить amd cleanup - нихуя.
В нете нашел только этот путь, ну и старую тему на 2че где советовали искать старый рабочий драйвер - это единственное решение? Проблема есть и на вин10 и на вин11.
почему нет ледибаг в оп пиках :(
У тебя в таком случае будет сильно завышенный вольтаж для такой частоты и можно намного больше снизить энергопотребление
Так то можно вообще поверлимит зарезать и всё
>У тебя в таком случае будет сильно завышенный вольтаж для такой частоты
У меня в таком случае напряжение GPU не поднимается выше 0,825в.
Возможно конечно это от видеокарты зависит, там тоже есть отличия в разных исполнениях и биосы у них тоже отличаются. Ну вот у меня так это работает.
На полярисах поверлимит был заебись (-50/+50), а на рдна2 какие-то жидкие -6 + 15 которые дефакто бесполезны т.к вольтаж сам по себе режет тдплимит
Видно что карточка ограничена только TDP и в тесте OCCT не достигает заявленных 2500МГц и 1.175в. В играх естественно будет иная ситуация.
С повышением напряжения растёт энергопотребление. Причём растёт катастрофически, а вместе с этим так же растёт и температура.
И глядя на это снизить частоту GPU на 20~30% кажется уже не такой плохой идеей.
По дефолту нвидия лидирует в нейронках. До недавнего времени дифузия на АМД работала только под линуксом на самом деле для нейроанона линукс не должен быть проблемой, скорее наоборот. Сейчас есть костыли и можно заставить амд работать с нейронкой под шиндой. Сравнения по производительности нужно искать, спроси в /ai попробуй.
>>565420
> 24гб ей мало
Это ты что то не так настроил. Я помню аноны с 8 гб и менее генерили нормлаьно, когда треды ещё в /б висели. Возможно нужно генерить поменьше и потом апскейлить.
отключаю сразу
Про линукс в курсе, это мой рабочий инструмент. Просто на компе на котором я играю стоит винда, но стейбл диффужн я заводил на винде, там, в целом, ничего сложного. Генерю сейчас на 5700XT, но из-за малого объема видеопамяти диффужн ебет оперативку и диск, 1024х1024 ставлю батч на 10 изображений и можно уходить заниматься своими делами на пару часов, ну или на ночь оставлять генериться.
В общем, поэтому и хочу новую видюху - в старфилд играть, да генерить картинки/текст. Но нвидиа последняя у меня была аж еще 8800 GT
Потому что буфер всинка сглаживает микростаттеры, а сама технология амуды их еще больше создаёт, но уже без какой-либо компенсации
>Фантом это полная копия рефа с другой системой охлаждения.
Хуя дебил. Хотя бы pcb посмотри прежде, чем говорить.
Конечно, это ж 580, небось еще от деда тебе досталась, мало ли какие духи в ней завелись
>рыкса 580 начала шалить, вылетать из игор, выдавать синие экраны
У меня подобное было с 290Х.
Собирался меня видеокарту, но внезапно обнаружилось, что дело в БП, ему было уже 15 лет, он просто подыхал при нагрузке.
Да, я лично тебе пробки выбил. Судя по тому что постишь всё в порядке, или брат умер и пишешь с холодильника?
Живой. Просто совпадение. Хочу верить в это.
Поставил 22.11.2 и все впорядке, но это печальная тенденция.
Возможно это только м(емные) карты этому подвержены, но апдейтиться ради науки не стану.
Им похуй похоже, у меня после последнего обновления хрома жёстко отъебнуло ускорение и даже без него пропуски кадров.
АМД так наказывает тех кто до сих пор пользуется хромогом
Пацаны, что за хуйня творится? Давеча купил 6750 -постоянно вылеты во всех играх типа ласт оф ас, Хогвартса, резика 4 и т.д. До этого были нвидиа и с ними таких проблем не было.
Больше инфы надо, если вылетает без ошибки то это может быть проблема в переразгоне видяхи, переразгоне оперативки, проблем с жесткими дисками.
Попробуй сначала сбросить частоты на видяхе и потом тестируй, если будет продолжать вылетать то проблема точно не в видяхе.
Посмотрел видео про сброс частот из шапки и нихуя не понял. У меня каличный 60 герцовый монитор. Сколько линий в бланкинге ставить надо для такого?
Видел это только в этом треде. Откуда инфа?
P.s: потенциальный покупатель амуды.
Хочу разобраться перед покупкой, насколько всё хуёво.
Вот какого типа ошибки
Имя журнала: Application
Источник: Application Error
Дата: 19.06.2023 00:02:46
Код события: 1000
Категория задачи:События сбоев приложения
Уровень: Ошибка
Ключевые слова:
Пользователь: DESKTOP-GICCSA9\Nightsoc
Компьютер: DESKTOP-GICCSA9
Описание:
Имя сбойного приложения: tlou-i.exe, версия: 1.1.0.0, метка времени: 0x6483ae7a
Имя сбойного модуля: ntdll.dll, версия: 10.0.22621.1848, метка времени: 0x48d14984
Код исключения: 0xc0000005
Смещение ошибки: 0x00000000000ab884
Идентификатор сбойного процесса: 0x0x3FDC
Время запуска сбойного приложения: 0x0x1D9A2264D6E8C99
Путь сбойного приложения: C:\Users\Nightsoc\Downloads\The Last of Us Part I-InsaneRamZes\tlou-i.exe
Путь сбойного модуля: C:\Windows\SYSTEM32\ntdll.dll
Идентификатор отчета: caa88c44-2cce-4649-b3fa-bcb3097fb8f2
Полное имя сбойного пакета:
Код приложения, связанного со сбойным пакетом:
Xml события:
<Event xmlns="http://schemas.microsoft.com/win/2004/08/events/event">
<System>
<Provider Name="Application Error" Guid="{a0e9b465-b939-57d7-b27d-95d8e925ff57}" />
<EventID>1000</EventID>
<Version>0</Version>
<Level>2</Level>
<Task>100</Task>
<Opcode>0</Opcode>
<Keywords>0x8000000000000000</Keywords>
<TimeCreated SystemTime="2023-06-18T21:02:46.3117697Z" />
<EventRecordID>2119</EventRecordID>
<Correlation />
<Execution ProcessID="10256" ThreadID="908" />
<Channel>Application</Channel>
<Computer>DESKTOP-GICCSA9</Computer>
<Security UserID="S-1-5-21-3260279304-932093779-826908043-1002" />
</System>
<EventData>
<Data Name="AppName">tlou-i.exe</Data>
<Data Name="AppVersion">1.1.0.0</Data>
<Data Name="AppTimeStamp">6483ae7a</Data>
<Data Name="ModuleName">ntdll.dll</Data>
<Data Name="ModuleVersion">10.0.22621.1848</Data>
<Data Name="ModuleTimeStamp">48d14984</Data>
<Data Name="ExceptionCode">c0000005</Data>
<Data Name="FaultingOffset">00000000000ab884</Data>
<Data Name="ProcessId">0x3fdc</Data>
<Data Name="ProcessCreationTime">0x1d9a2264d6e8c99</Data>
<Data Name="AppPath">C:\Users\Nightsoc\Downloads\The Last of Us Part I-InsaneRamZes\tlou-i.exe</Data>
<Data Name="ModulePath">C:\Windows\SYSTEM32\ntdll.dll</Data>
<Data Name="IntegratorReportId">caa88c44-2cce-4649-b3fa-bcb3097fb8f2</Data>
<Data Name="PackageFullName">
</Data>
<Data Name="PackageRelativeAppId">
</Data>
</EventData>
</Event>
Вот какого типа ошибки
Имя журнала: Application
Источник: Application Error
Дата: 19.06.2023 00:02:46
Код события: 1000
Категория задачи:События сбоев приложения
Уровень: Ошибка
Ключевые слова:
Пользователь: DESKTOP-GICCSA9\Nightsoc
Компьютер: DESKTOP-GICCSA9
Описание:
Имя сбойного приложения: tlou-i.exe, версия: 1.1.0.0, метка времени: 0x6483ae7a
Имя сбойного модуля: ntdll.dll, версия: 10.0.22621.1848, метка времени: 0x48d14984
Код исключения: 0xc0000005
Смещение ошибки: 0x00000000000ab884
Идентификатор сбойного процесса: 0x0x3FDC
Время запуска сбойного приложения: 0x0x1D9A2264D6E8C99
Путь сбойного приложения: C:\Users\Nightsoc\Downloads\The Last of Us Part I-InsaneRamZes\tlou-i.exe
Путь сбойного модуля: C:\Windows\SYSTEM32\ntdll.dll
Идентификатор отчета: caa88c44-2cce-4649-b3fa-bcb3097fb8f2
Полное имя сбойного пакета:
Код приложения, связанного со сбойным пакетом:
Xml события:
<Event xmlns="http://schemas.microsoft.com/win/2004/08/events/event">
<System>
<Provider Name="Application Error" Guid="{a0e9b465-b939-57d7-b27d-95d8e925ff57}" />
<EventID>1000</EventID>
<Version>0</Version>
<Level>2</Level>
<Task>100</Task>
<Opcode>0</Opcode>
<Keywords>0x8000000000000000</Keywords>
<TimeCreated SystemTime="2023-06-18T21:02:46.3117697Z" />
<EventRecordID>2119</EventRecordID>
<Correlation />
<Execution ProcessID="10256" ThreadID="908" />
<Channel>Application</Channel>
<Computer>DESKTOP-GICCSA9</Computer>
<Security UserID="S-1-5-21-3260279304-932093779-826908043-1002" />
</System>
<EventData>
<Data Name="AppName">tlou-i.exe</Data>
<Data Name="AppVersion">1.1.0.0</Data>
<Data Name="AppTimeStamp">6483ae7a</Data>
<Data Name="ModuleName">ntdll.dll</Data>
<Data Name="ModuleVersion">10.0.22621.1848</Data>
<Data Name="ModuleTimeStamp">48d14984</Data>
<Data Name="ExceptionCode">c0000005</Data>
<Data Name="FaultingOffset">00000000000ab884</Data>
<Data Name="ProcessId">0x3fdc</Data>
<Data Name="ProcessCreationTime">0x1d9a2264d6e8c99</Data>
<Data Name="AppPath">C:\Users\Nightsoc\Downloads\The Last of Us Part I-InsaneRamZes\tlou-i.exe</Data>
<Data Name="ModulePath">C:\Windows\SYSTEM32\ntdll.dll</Data>
<Data Name="IntegratorReportId">caa88c44-2cce-4649-b3fa-bcb3097fb8f2</Data>
<Data Name="PackageFullName">
</Data>
<Data Name="PackageRelativeAppId">
</Data>
</EventData>
</Event>
почему прога амиде так сильно душит и не дает андервольтить
оно как бы применяется, но тем не менее вольтаж работает строго в определенных пределах
Там ебнутая система с диапазонами везде.
Шаг вольтажа на самом деле около 6.25мв, об этом хуй кто пишет где
Тот же всинк только чуть чуть поплавнее?
> в чем разница между фрисинком и всинком
С фрисинком будет нормально выглядеть если пека не вытянет 72фпс.
ну например ниже 1в на память оно не дает ни в какую
на гпу ниже 1.07в тоже не дает никак
для моей веги это было бы очень кстати
> Сколько линий в бланкинге ставить надо для такого?
В твоем случае вообще ничего менять не надо
С всинком вместо управления получаешь кисель, фрисинк такого не дает, но иногда случаются мерцания.
Так у тебя старьё, а проблемы вроде как с 7000й серией
Качни и запусти DDU, в шапке ссылка на видео про настройки. В дду выбери отключить автообновы от винды
Проверь Программы и компоненты, если вдруг есть посторонние видеодрова не от амд, удали, потом ещё раз дду
После этого скачай дрова амд с их сайта и поставь
Фрисинк менее подвержен статтерам, если частота кадров не идеально соответствует частоте синхронизации, он новый кадр не ждет пока высрет жпу, а показывает столько, сколько возможно
Я хз, в шапке да и в треде пишут что аппаратное ускорение видео в браузерах не работает. Это правда или вброс от кожаных зеленожопых?
Я хз насчёт остальных браузеров, а в файрфоксе всегда ставлю галку на аппаратное ускорение, пока проблем не замечал с самими видео или с нагрузкой на проц/видяху.
Это пиздёж.
В Firefox аппаратное ускорение видео работает без каких-либо проблем. Галочка в настройках на это не влияет.
Подтверждаю, тоде критует в рандомные моменты, но на 6600xt
Все, починил. Я в прошлый раз когда драйвер обновлял нажал драйвер онли и адреналин от обиды решил самоудалиться. А до 22.5.1 когда так делал, то все было нормально. Бред.
Лол. Мимо сидевший на GTX 950 с 2016 года и неделю тому купивший новый компудахтер с 6750. Сейчас пью пиво и бурбон и проходу ластик, Quarry, Хогвартс, Киберпук, Метро Эксодус и т.д. Все-таки интерес к играм есть. Хотя подобных эмоций, как игры, сделанные до года 2007 они мне уже не приносят.
>кроме индюшатины.
С года 2018 играл практически одни малотребовательные инди порноподделки и тому подобную парашу. Сейчас они меня тоже в конец заебали. Все-таки наверное осилю все более-менее стоящие игры за лет 5, а потом буду думать чем свой досуг забивать
Он и на калькуляторе запустится
Ну ты выбрал самую сою для первого прогона
Сризидент калычи, ластуха, мертвый спейс, атомик
Скоро старфилд, новый сталкер
>Столько бабла выкинул
На что ты его еще потратишь? А карта никуда не денется, а топа хватит минимум на 5 лет
Welcome to the club.
Не сейм. Мне в последнее время на старой 3080 вообще не хотелось игры запускать т.к. надо было настроечки скручивать и поэтому я играл только какие-нибудь дрочильни типа Фортнута. А тут купил 7900ХТХ и сходу Тлоу прошел, Ре4, щас вот думаю что следующим наворачивать.
Играю с комфортом и большим фпс. Амудапроблем не имею. Ну и разница в фпс там гораздо больше.
Купил RX6700 10Gb, к 2667v4/32Gb, а она ему как раз.
Киберпук в 1080р без лучей и без FSR выдаёт 80 фпс, со всеми возможными лучами - 30 фпс.
Тупой вопрос: если я включу поддержку ReBAR, что-нибудь изменится в лучшую сторону? А то на хеонах включение ReBAR требует мод бивоса и переустановку винды, слишком много телодвижений чтобы "взять да попробовать". Вдруг кто-нибудь пробовал включенный и выключенный ReBAR в игорях. Много ли он даёт?
короче на связи настоящий владелец rx 6700 10GB и по совместительству долбоеб зажавший деньги до 6700XT(оно того стоит).
>Киберпук в 1080р без лучей и без FSR выдаёт 80 фпс
наглый пиздежь. 6700 без лучей и на самых максимальных настройках просаживается в кибрепанке до 45 фпс, отражения просто ебут эту карту. к слову новый ведьмак на максималках так же просаживается до примерно такого же фпс.
>со всеми возможными лучами - 30 фпс
cснова наглый пиздеж. с лучами и 30 нету, а с новыми еба лучами в районе 7 -10 фпс вообще. с fsr с обычными лучами можно поиграть, без неиграбельно.
rмой совет всем кто собирается брать карту. берите минимум 6700xt, а лучше подкопите до 6800 и будет вам счастье.
>без лучей и на самых максимальных настройках
Пожалуй ты прав. Я расстроился и постарался забыть про них, играю на высоких.
>с новыми еба лучами
Какие лучи были на рутрекере (v1.62), такие и включил, хули ты начинаешь?
>Пожалуй ты прав
ясен хуй потому что у меня есть эта карта и я играл на ней в кибреурвака и не спизженного сторрента а купленного.
>хули ты начинаешь?
потому что ты нагло пиздишь и вносишь дез информацию про 80 фпс на ультах в кибредерьмаке итд.
А ты можешь на глаз отличить ультра настройки без лучей, которые по твоим словам выдают 45фпс, от высоких настроек без лучей, которые у меня выдают 80фпс?
Или ты просто включаешь все ползунки на макс и горишь?
Я не троллю, просто пытаюсь разобраться?
А у тебя какой проц?
>Я не троллю
именно этим ты и занимаешьи и вообще иди нахуй.
>А у тебя какой проц?
2600 пузен. да да я знаю что он такой себе и нормлаьно он тоже кибреведьмака не тянет. я вкурсе обо всем он у меня уже 4 года и я прекрасно знаю когда пердит проц и руинит мощность карты и когда пердит конкретно карта. это разные экспириенсы.
особенно неприятно ощущается когда просадочка идет пов ине проца. так вот в киберведьмаке я получил эскпириенс и когда пердит карта и когда проц, по отдельности. если про 45 фпс это не вина проца была. там упор в гпу на 100 был и противных фирзов когда пердит проц небыло. да и кстати 2600 пузен 45 рисует во все что я играл вообще без проблем. а вот стабильные 60 в тяжелых к процу играх как раз не держит.
такая вот кухня. на туполй траллинг больше отвечать не буду. адекват и так все это знает и понимает о чем я писал.
Похоже киберпаку малость похуй на процессор. Между 1ГГц и 4ГГц разница небольшая.
Без движухи это конечно такой себе тест, но мне лень искать нужную обстановку. Говорят там дальше по сюжету будет подходящее место с толпами народа, вот и проверю.
Видеокарта Radeon RX 7900 XTX постепенно дешевела все месяцы после выхода, однако в последнее время упала в цене ещё сильнее и весьма резко.
Видеокарта с 24 ГБ памяти менее чем за 900 долларов. Radeon RX 7900 XTX резко подешевела
В США на Amazon адаптер можно приобрести по цене всего от 882 долларов. За эти деньги предлагается карта XFX, а модель Sapphire обойдётся в 900 долларов.
В Европе ускоритель также упал в цене и стартует с 950 евро. Напомним, это уже с учётом налогов в отличие от американской цены.
Рекомендованная цена RX 7900 XTX составляет 1000 долларов, так что спустя всего полгода после запуска флагман AMD предлагается существенно дешевле рекомендованной цены.
>Radeon RX 7900 XTX резко подешевела
>В США на Amazon адаптер можно приобрести по цене всего от 882 долларов
В чем смысл узакывать эту сумму, если туда не входит налог?
О, я не один с такой проблемой. Значит не шиза
У меня такое было только в одной игре - Wolfenstein: Youngblood на Windows7. И там это решилось как раз переключением оконного режима. Больше нигде подобного не встречал.
Пока враки. См. скриншот, и это без налога.
Дрочи нейронки, чё как отсталый.
Смысл в том, что в некоторых штатах налога нет. Имажинируй.
Стабильно дропает до 30 фпс и будто постоянно в 30 фпс играешь ведь мобы на каждом шагу
https://www.youtube.com/watch?v=PS9xdQxcglc&t=317s
Я смотрю, ты отчаялся настолько, что откопал видосик с двумя сотнями просмотров?
Что за карта? Б\У или новая? Какие драйвера?
Если что - смотри на БП? Или смотри на температуры.
Возьми лучше 6600 за те же деньги, у них разницы в производительности около нихуя, а 6600 жрёт в два раза меньше, толком не греется и даже dxr поддерживает.
Ну, лиза ваша выпускает много такого говна, и даже с объемом памяти меньше чем у меня. Так что тут ты сам на себя ссышь
>AMD
>C лучами
>Которые почти ничего не меняют кроме фпс
>c ФСР мылом
>25-30 кадров
Ну тредом ты не ошибся, а производителем чипа еще как, вот если бы вместо 6800xt была бы 3080, а вместо фср - длсс, ну и кадров бы было побольше, то я бы не удивился ни капли
> вот если бы вместо 6800xt была бы 3080
В таком разрешении однохуйственно
> а вместо фср - длсс
Между фср 2.1 из мода и длсс я увидел ровно ноль разницы. Абсолютно ноль.
Для пое важен проц, потом уже карта. У меня 5700х + 6800 дропает до 80 фпс в фулхд, боттленек по процу. С торнадо шотом надо еще и норм карту.
В гугле пропадает курсор и текст, также баги с видео, если аппаратка включена. Без нее збс
Насколько надо пасть, чтобы жрать за обе щеки такой срач на экране?
Ссу я разве что на таких огрызочников как ты, подумать только в 2023 году сидеть с 12 гектарами видеопамяти, пиздец кринжатина, конечно.
Я наоборот.
Последний сингл в который играл был какой-то длц ко второй халве, с тех пор играл только во всякие варгейм дрочильни.
В разгар чмойнинга пересобрал пеку, обновил картон занедорого и купил большой телек со 120 герц, хдр и всем таким, после чего помимо дрочильни начал по чуть-чуть проходить контрол и игра меня зацепила, за ней пошли другие синглы.
Перед новым годом взял 4090 и уже втянулся нормально, прохожу примерно по 2-3 игры в месяц, в дрочильню совсем перестал заходить, играю только с геймпада.
Все охуенно.
>Это поколение может и не будет уже тащить
Учитывая провал что нвидии с 4xxx, что амд с 7xxx (не всеми, но большинством), думаю, что тащить будет. Единственный момент это если сраные разрабы массово возьмут моду не оптимизировать свои поделки, но тут тогда и 5 или 8 серия не поможет.
я тоже зажал, так и еше купил карту на страрте продаж когда она была чуть дешевле xt, брал из расчета минимального жора ватт
Я тоже по этим причинам купил. Чтобы блок питания не обновлять.
>>571958-нищук
Вообще хотел взять RX5700XT 8Gb у китайцев за 13к. Но решил не играть в китайскую лотерею и взять дорогую, но менее жрущую видюху, c 10Гб, и мало-мальским DXR.
Но цены пиздец не гуманные. В 2.6 раза дороже за прирост 13% в синтетике.
Ну так за это поколение нихуя не выходит крупного особо. Старфилд пастген, Сталкер 2 если и выйдет его тоже 20 серия будет тащить скорее всего. Выходит это поколение снова без игр. Короче смысла в этом поколении особо нет
Подскажите, что за отключение энергопотребления. У меня 6650 xt, не могу играть спокойно из-за свиста, треска. Но у меня действительно с башкой проблемы, короче как купил карту так и не прошёл ни одной игры.
Обновил КиберПук до версии v1.63
Заодно проверил настройки графики с FSR и без. Запускал стандартные пресеты, чтобы их названия отображались на странице статистики:
Пик.1: Впечатляющий пресет без лучей, с включенным по-умолчанию FSR (настройка FSR - Качество).
Пик.2: Впечатляющий пресет без лучей, с выключенным FSR (без FSR).
Пик.3: Пресет "Ультра Лучи" с включенным по-умолчанию FSR (настройка FSR - Автоматически).
Пик.4: Пресет "Ультра Лучи" с включенным вручную режимом FSR (настройка FSR - Производительность).
Видюха Sapphire RX 6700 Pulse 2230 МГц
Интернеты пишут, что RX 6700 по характеристикам полностью совпадает с видеоядром пятой плойки. Поэтому хочется верить, что в ближайших игорях, даже с лучами хотя бы 30 фпс оно высрет. Хотя, RX 6700 XT или RX 6750 XT было бы лучше, конечно.
Какая видюха? А что за баги с видео? Фризит? В каком браузере?
>Интернеты пишут, что RX 6700 по характеристикам полностью совпадает с видеоядром пятой плойки.
Совпадает, но у плойки есть аппаратная декомпрессия текстур с ссд и свой оптимизированный рендер апи вместо дырекса, так что может быть и хуже.
Шиз не шиз, а "киберпанк" ниига не хорошиц бенчмарк. .Даже сейчас с оптимизацией там хреновасто. А 6700 карта весьма приличная, и судить о ней по подобной игре не стОит. Я пока жду UE5 игр/тестов.
мимо с 6800
Зависит от поколения. А вообще у сапфира достойные карты, они давно с амд работают. Холодное - понятие относительное, тут тоже от карты зависит.
Две трубки. Все вендоры говно, выбирать нужно не по буковкам, а смотреть тесты.
У меня отключено, на производительность не влияет, во всяком случае в играх.
Энергосбережение отключается через MorePowerTool. Там же можно снизить частоту и напряжение GPU.
Асус скурвился в последние годы. Я бы даже топовые их карты не стал советовать, если только они не проверены несколькими независимыми тестами в течение полугода.
У производителей разные линейки разного качества. У сапфира топовые это токсик и вапор-х. А вообще выбирать по названию в 2023-м это билет на кладбище мамонтов, надо смотреть на охлад своими глазами, ибо косячат все. А для того, чтобы совсем холодно было, нет ничего лучше кастомной водян-очки.
Бери тот, у которого тдп выше. Охлад у них одинаково хорош.
Какая доступней и с гарантией подольше, ту и бери. Разогнать можно обе.
У меня к msi давняя неприязнь
Это миф или реальная тема? С чем связано?
Выше настройки - система больше ресурсов потребляет - ниже фпс. И наоборот.
По дефолту мозги работать должны.
Зависит от игры как лимит реализован.
Если тупо сделано, то с лимитом после рендера кадра игра спит. То бишь 75фпс = 1 кадр в 13.33мс. Допустим, он зарендерился за 5мс, далее игра спит 8.33мс. Далее идет рендер следующего кадра. И если он занимает больше 13.33мс, то происходит статтер (при условии 75hz моника).
Нужен моник с FreeSync/Gsync, который рефрешится не через одинаковые интервалы, а по мере поступления кадров. Ну и чтобы игра поддерживала это.
Это пиздец редкая ситуация и возникает ток, когда настройка повыше начинает вместо цп ебать условный жпу, а до этого ботлнек был в цп.
В вове на сколько помню с таким сталкивался ток
> А потом выяснилось что сидит Тимурка на зионе с алика и майненом джокере, а современное железо видел только на картинке.
Да ладно, когда и где выяснилось? Я года 2 или больше в хардваче не сидел. Есть тредшоты или пруфы какие-то?
Ну, у них уже есть многолетний опыт с чиплетами. Всё.
Любые дизайны, в том числе монолитные тоже в состоянии отваливаться, тут лотерея в принципе.
Ясчитаюблядь что за такие бестыжие деньги они не имеют права отваливаться даже у моих внуков!
Зачем мне надевать твою бейсболку, я ж не огрызочник.
Они HBM память такими же нашлепками реализовывали, у меня до сих пор есть одна из первых карточек с такими нашлепками - R9 Nano - всё ещё жива.
А почему они отваливаться должны? Они же не греются почти.
Отвалится, если там изначально с браком было, а если норм сделано, то, имхо, спокойно 5+ лет отпашет.
Дебил, с твоей логикой у тебя сам гпу отъебнет в разы быстрее т.к. максимальная температура там в центре, а края греются даже слабее, чем MCD.
АМД с hbm мегаотвальная.
Дельта хот спот - ГПУ очень дохуя у 7900.
Вангую что на долгосрок это отвальное гавно.
Земля тебе пухом, долбоеб.
Хотспот - температура в центре кристалла, тебе об этом сама амуда пишет в драйвере.
Температура ГПУ - это температура ближе к периметру кристалла.
Опять же сама амуда пишет в драйвере.
Ты трясешься за отвал чипов с кэшем, которые ВНЕЗАПНО стоят по периметру гпу и их температура и температура гпу в их точке соприкосновения примерно равна.
>Ты трясешься за отвал чипов с кэшем, которые ВНЕЗАПНО стоят по периметру гпу и их температура и температура гпу в их точке соприкосновения примерно равна.
Кеш является частью ГПУ.
Не исключено что t gpu - это тупо температура кеша
А почему вы 6800 рассматриваете, а не 7ххх серию?
Думал брать 7900хтх, но в треде что-то мало их, как я видел
Ну я вот хочу взять 6800 xt потому что всё-таки это монолитный чип.
Дрова за два года более-менее стабильные.
Кстати хочу взять новую а не из под майнера. Отговорить пожалуйста если есть аргументы.
P.s. у меня просто в городе нет в продаже 6800xt на вторичке, чтобы поехать и посмотреть. А заказывать непонятно что через авито я ебал.
Тебе на это картинке обвести чипы с кэшем? Если бы инфинити кэш являлся частью гпу, то это уже не был бы чиплет, а был монолитный кристалл, как у нвидиа.
Мне на винде это особо и не нужно, просто интересно.
Хорошая карта отговаривать ни кто не будет.
Только не бери гигабуте
Сапфир или поверколор твой выбор
Оптимально по соотношению цена/производительность
7 серия пока сырая и тестов с обзорами в IRL мало
6 серии много на б/у рынках, можно даже новые по неплохой цене иногда найти
>>575254
Бери, если цена норм
>>575221
Я взял msi 6800 gaming trio преимущественно из-за нормально сделанного питания и охлада. А в целом что доступней, то и бери, сильно не пожалеешь в любом случае
>>575281
Fail-safe. Линукс и не такое даёт, под твою ответственность, но подразумевает, что ты хоть как-то знаешь, как система и железо работает. А на винде пользователь обычно мало вникает в нюансы, так что, чтобы карту не повредить, они ограничивают лимиты настройки. Не самом деле не критично, т.к. у карт всё равно ниже минималки 5-6 Вт не опуститься физически, она тупо отрубится от нехватки энергии.
>Не самом деле не критично, т.к. у карт всё равно ниже минималки 5-6 Вт не опуститься физически, она тупо отрубится от нехватки энергии.
При чём тут минимальное потребление вообще? Это же лимит, а не оффсет.
А смысл в толстой прокладке, она же хуже отводит тепло. Тонкая есть и норм. Что за предохранители, кстати, ручные что ли?
Чёт ты какой-то невежливый, посему проследуй обратно в стойло.
Это скорее нитра и нитра+. Пульс - это краснопес.
Существует такая хуйня как компрессия текстур на ходу. Типа есть хайрез текстура на ультра настройки, а все вот эти настройки снижающие качество текстур, проводятся на лету во время игры, что и сжирает системные ресурсы. Когда то говорят такое было в планетсайд 2, но вроде такого больше не наблюдается.
Зато там дополнительные фильтры по питанию, что с избытком компенсирует все недостатки.
Где такую купить? Сейчас только на вилдзбери такую вижу, а там покупать ссыкотно.
Чем больше, тем лучше. Особенно если бп дешёвый или есть перебои с электричеством/старая проводка.
В моём городе нет
Там лок в 60 фпс моник 75 должно все робить
на нвидии все норм работало, а тут ебучее предупреждение даже попробовать не дает
через cru не получается (хотя на нвиде все робило)
Да, твоей мамке. Так разогнали, что туда влезло три смычка ахмедов и еще для хомяка место оставалось
>>575965
Смысл любого усиления по питанию - сгладить возможные колебания тока и устранить точечные всплески/падения питания. В перспективе это увеличивает срок службы компонентов, т.к. они меньше работают в экстремальном режиме. Опять же, это не так что перепад в 10-20% от бп и постоянные всплески от проводки, нет, там миллисекундные, даже микросекундные изменения, просто чем их меньше, тем лучше. У современных карт компонентов на плате много, и несмотря на энергоэффективность и техпроцесс, они вместе потребляют дофига и не всегда равномерно.
Это я говорю как радиолюбитель (преимущественно усилки и слаботочные схемы, но видяха мало отличается по сути работы).
Da.
Какой-то очень странный вопрос. Сколько игр играл, никогда таким вопросом не задавался. Только смутно припоминаю что где-то видел такие слова, в настройках графики может...
А что это? А для чего это? На что влияет и какая разница?
Нет, я серьёзно. Может это действительно важно и мне тоже надо это знать.
Стереотип, это от игры зависит. К примеру, Рдр2 работает лучше на вулкане и на картах от кожанки
Забавно, что в 18.04 и 20.04 гуй запускался, просто в неправильном разрешении, а на 22.04 вообще никак.
Пиздос, а мне блядь красноглазые пингвины рассказывают о том, что Линь - самая пиздатая блядь и вообще виндекапец. А тут только для того, чтоб показывал экран - надо с ядром ебаться.
Так он на некро лтс версии сидит, понятное дело что у него там всё через жопу.
Это ж вообще пиздец в играх типа пое постоянно дропает фпс до 40
Нет, нельзя, но можешь включить для этой отдельной игры Enhanced Sync в настройках драйвера, который точно так же поможет избавиться от тиринга, в отличие от VSync эта фича не привязывает количество fps в игре к герцовке и не добавляет инпут лаг.
Купить новый манятор с радиусом 1-144
Купить монитор/карту чтоб фрисинк премиум работал, там есть компенсация низкого фпс, ощущается неблохо даже на 20 кадрах.
Просто непонятно нахуя она нужна в таком случае?
Если в срузенах это хоть как-то совпадает с другими показателями, то в видеокартах нихуя не понятно.
Если брать в пример, что температура гпу - это текущая, а хотспот - это прогноз, то в продолжительной нагрузке гпу должен сравняться с хотспотом. В процессорах действительно под нагрузкой хотспот сравнивается с самым горячим ядром, а в видюхах - нихуя. Гпу например доходит до 70, а хотспот под 100 и начинается тротлинг.
Разве хотспот, это не буквально горячая точка на кристале, а общая температура, это температура всего кристала?
Ну в общем пробежав по гуглу по диагонале, хотспот, это действительно буквалньо горячая точка. НО есть ниюанс. Горячая точка в любом месте видимокарты, с любого теплодатчика.
Это самая высокая из кучи датчиков разбросанных по всему кристаллу, нужна она что бы не было локальных перегревов. Это то же самое что и в процессорах в каждом ядре по датчику но выводится самая высокая.
Вроде бы это всё давно известно, а вы занимаетесь переоткрытием потому что какой то школьник на оверсракерсах кукарекнул.
Каким переоткрытием? Тебе говорят, что хотспот - это не температура, а прогноз температуры.
Если запустить хвинфо, то у процессора тоже есть подобный датчик, который под нагрузкой скачет выше всех т.е. ядра от него отстают на старте, но при длительной нагрузке они примерно равны, что, можно сказать, подтверждает теорию.
А вот на видюхе такого не происходит и тут скорей всего хотспот как раз самое горячее место. Только вот в адреналине амуда пишет, что это центр кристалла, а не любой датчик.
Это реальный датчик, запаздывает датчик на матери, он и висит в разделе матери, может внешний диод как в древности, который медленно прогревается поэтому и запаздывает.
По этому датчику регулируется скорость вентилятора, возможно это просто корявое копирование матерью tctl, после одного из обновлений биоса у асуса скачки этой температуры стали обрезаться что бы вентиль не завывал. Никаких подтверждений что это предсказание я не вижу, может у вас матери чудят с этим датчиком.
Ну смари, нагрузка резко появляется и кухлер, ессесна, допускает скачок, датчик это фиксирует и прогнозирует, что такими темпами у тебя вот-вот 85С будет, но тут физика берет свое и кухлер начинает отводить тепло и получается, что реально ядра не успели скакнуть до 85С, но если продолжить давать определенную нагрузку, то в течение какого-то времени прогнозируемая температура +- совпадет с реальной.
Короче, какая-то мутная хуйня. Щас вычитал, что на первых срузенах этот датчик специально показывал +20С, чтобы было легче обороты регулировать на топовых процах. Потом они снизили оффсет, а что он показывает в последних срузенах - хуй знает.
Шизотеория.
АянамиРей.webmНет, блять, сейлор меркури
Это копия, сохраненная 11 октября 2023 года.
Скачать тред: только с превью, с превью и прикрепленными файлами.
Второй вариант может долго скачиваться. Файлы будут только в живых или недавно утонувших тредах. Подробнее
Если вам полезен архив М.Двача, пожертвуйте на оплату сервера.