Честно говоря, я разочарован в Nvidia, не туда они свернули, в современных играх катастрофически не хватает объема видеопамяти и вместо того, чтобы дать игрокам ее они помешались на этих лучах, сомнительный выбор траектории развития.
Согласен полностью. У меня 3070 ti и у нее на борту ВСЕГО 8 гб видеопамяти. Как-будто Хуангу лично влом добавить объем. Но нет - беги, покупай следующую серию за + 100к
@@GameWitcher Это точно! У меня тоже 8 ГБ видеопамяти, 4050 выйдет с 6 ГБ - это вообще цирк, люди будут деньги на ветер выбрасывать, когда можно взять 3060 с 12 ГБ видеопамяти по цене 4050.
Дааа, видеопамять это очень важная вещь, вот например GTX 1080 Ti имеет много видеопамяти, и в новой игре The Last of Us. Part 1 даже в 2К этой памяти хватает, мой друг всё на высоких настройках, в 2К разрешении, играет в эту игру в 30-35 кдс! Главное что видеопамяти достаточно!
поделюсь опытом: с конца 2012 по 2016г у меня была gtx 650 на 1 гб, которой мне вполне хватало года 3 точно, потом купил б\у gtx 780 - было круто, хотя пришлось, в итоге, менять блок питания - уже не вытягивал видюху, которую в 2018г я продал, доплатил 4 тыс руб. и взял 1060 6гб - суперская карта, которой в фулл-хд хватало до 2021г. точно. Однако, в 2021г. дёрнуло меня купить себе 4к монитор, на котором пришлось играть в 1080р, но хотелось-то... в 4к! И вот, осенью 2022г. у китайского перекупа взял 3080 (с учетом продажи старой видюхи, обошлась она мне в 48 тыс руб), выставил в РДР 2 4к настройки и кайфанул от детализации. Особенно это бросилось в глаза, когда я снова переключил на 1080р и подумал: "Блин, как же я играл с таким мылом полтора года?!". Отныне путь в 1080р для меня закрыт: в лучшем случае через несколько лет буду играть в 2к - благо 28-дюймовый моник не слишком большой для такого разрешения. Кстати, раньше думал, что главное подобрать оптимальную диагональ монитора: мол, 28 дюймов подходит и для 4к и для 2к и даже в 1080р будет терпимо. Но не всё так просто: оказывается, большую роль играет не только диагональ, но и родное разрешение монитора, который плохо умеет обращаться с чужеродным разрешением. Так что... не думайте, что небольшой 4к монитор выдаст вам такую же качественную картинку в 2к или в 1080р - НЕТ! Ну и что могу сказать после полугода пользования 3080? Больше всего на восприятие картинки влияет во-первых разрешение экрана, во-вторых, качество самого монитора. Что же касается "лучей", то они, как раз меньше всего производят "вау-эффекта" при условии, если в игре и без них всё было сделано грамотно. И еще момент: когда ты только пересаживаешься на 4к-гейминг, разница с тем же 1080р бросается в глаза. Но сейчас, например, поскольку 4к для меня стало нормативным, я к нему ПРИВЫК точно так же как до этого привыкал к 1080р. Так что ребята, человек такая скотина, которая ко всему привыкает. Поэтому не гонитесь за графодрочерством и лучами - всё равно вы к ним очень быстро привыкнете, а вот если игра - говно, то к этому вы привыкнуть не сможете ))))))
4к все ещё слишком дорогое разрешение в плане требуемых видеокарт. На той же 3080 10gb уже даже в 2к не хватает видеопамяти для новых игр, поэтому не перехожу на 4к чтобы потом не тошнило от 2к моников)
Все ровно так же, как и со всякими hdr. Если материал изначально годный, то там нечего "улучшать", только если вы не фанат смотреть на "сварку", чтоб по глазам шарашило ) кругом сплошной маркетинг, а как иначе... А по разрешению. Для меня, например, все, что выше 1440р на 27" для дистанции 70см до глаз попросту неразличимо / бессмысленно, хотя, есть и любители уткнуться носом в монитор, там и 4к будет мало )
Рдр2 старая игра, в новых играх 3080 есть в рекомендованных для фуллхд и 10 гигов мало уже. Для 2к она уже не все потянет. Для 4к наверно лучше смотреть в сторону 4090
Для всех адептов что 4 к не наступило Длсс производительность в 4 к где идет рендер картинки из 1080п картинка значительно лучше чем те же нативные 1080п тоже самое и с длсс баланс где рендер будет идти с 1440 п картинка будет лучше чем натив 1440п Можете смело кидать в топку все эти недомониторы и брать 4 к, но есть исключение В 4 к еще не развита очень большая герцовка и нет адекватных мониторов 21/9 поэтому для кого то будет просто необходимостью брать 1440 п и лишь 1 категории людей нужны мониторы 1080п это настоящие киберкотлеты которым надо 360-540 герц мониторы с маленькой диагональю
если б взял 2к монитор и сравнил с фуллхд,ощущения были бы те же,2к улет,а вот 2к с 4к разницы бы не увидел. ПЕреплата за 4к не стоит денег,а 3080 в 2к даже очень хороша..
Наконец-то здравый взгляд на текущий рынок. Устаешь от облизывания "революционных" технологий RTX 4000 от некоторых "техноблогеров", которые до этого оправдывали стоимость майнингом, который теперь загнулся, а теперь по их мнению каждый должен или стримить и монтировать видео, чтобы компенсировать переплату
Ну так можно глянуть стоимость новых трешек того же 3070 и стоимость 4070ти, они по сути идентичны в ценнике или 3ки дороже, естественно новые, но по произволительности слабее. 3090ти гораздо дороже 4070ти, но по произвдительности 4070ти это тот же 3090ти. На кой ляд нужно дорогое, жружее внушительное количество электричества 3х поколение, когда дешевле и экономнее взять 4070ти ту же?) Если ты втарил 3х поколение то смысла менять нет, а тем кто с 0, как я, дешевле и рациональнее 4е поколение взять. Бу с авито брать? что бы потом бегать в СЦ отдавать 10-20к за ремонт? не вижу смысла. А то и системник себе выжечь от изнасилованной карты. Достаточно посмотреть ролики тех-же ремонтников которые эти бу карточки с авито или китая пачками чинят из-за дрмовой экплуатации железок предыдущими владельцами. Да и что бы купеить бу, ее надо как минимум в руках подержать, разобрать, прогнать тестами, мало кто из продаванов пойдет на такие вещи. Взял я 4070Ти от Гиги за 75к в магазине в РФ с 3х годичной гарантией и доволен.
@@Sergjji вот я и брал себе 3070. Если брать только наш рынок, то конечно не все так очевидно. У нас новые модели стоят баснословно дорого, а старые модели не сильно дешевеют, хотя в Казахстане картина немного другая. Во многом на восприятие влияет ценообразование во время майнинга. У нас они 3060 продавали в магазинах за более чем 1200$. А сейчас стоят 350$. Свою 3070 заказывал с США за 500$ и был это апгрейд с 2070 super. Тогда доплата за видеокарту, в хорошем исполнении от Aorus, стоила того и впринципе до сих пор радует, но хотелось бы в бОльших играх иметь максимальный пресет в 1440p и больше 100 кадров и поэтому рассматривал апгрейд на RX 6950 XT. Обойдется 600$ и дает лучше производительность чем 4070 и дает хорошую конкуренцию 4070ti за 800$, а также бонусом Last of us(да, да, багованая игра, но и киберпанк в запуске не сиял, а сейчас стал главным маркетинговым инструментом у NVidia, что аж 3-е поколение им навязывают). 3090 ti конечно же не рассматриваю из-за энергопотребления, температур и стоимости.
@@shkingwin Я свою версию 4070ти брал за 75 уже в РФ, в сша она стоит 860 баксов, с учетом что доставка санкционки из США стоит сейчас баксов 70-90 за пару кило и ещё не все посредники возят, плюс всякие 4-5% на конвертации покупки итд, я посчитал вышло либо идентично либо чуть дороже на пару косарей в РФ. Взял гигу гейминг ОС, считаю номрально. А смотрел прошлое поколение, цениики так и не падают, поэтому нафиг.
@@Sergjji Ну допустим продам свою видеокарту за 350-400$ по рынку вторички, а за 4070 ti заплачу 860. Переплата в 2 раза, за не двойную производительность, кроме единичных проектов с dlss 3.0. По тестам смотрел прирост может на 50%, но в соотношении фпс/цена не так интересно. Предыдущее поколение конечно не так интересно на первичном рынке, но тут больше вопрос к нашим магазинам, которые наценку в 30-50% делают и это уже другая история.
Давай так: уаз патриот Цена 2020 726т.р Цена 2023 1375т.р Ничего в железе при этом не изменилось, качество упало. Теперь про гпу, ты сравниваешь 20,30,40 серию. При этом ты не знаешь: - сколько затрачено на инженерные изыскания. - какова стоимость логистики - какова стоимость смд компонентов - как формируют цену вендоры - стоимость аренды линии самсунга и тсмц. При этом ты пытаешься рассуждать о вещах- которые знаешь весьма поверхностно. Ну а формировании цен на рынке РФ в связи с санкциями, рисками, курсом, серым импортом я вообще молчу. Ну и какой смысл этих ваших пространных рассуждений? Тем более что гпу не является предметом первой необходимости и грубо говоря нужна далеко не каждому... Другими словами- не нравится, не покупай.
купи 4090 сегодня чтобы завтра nvidia тебя кинула через xyй и заявила бы что актуальная версия DLCC будет доступна только на 6090 super ti которая станет дороже в три раза чем прежний топ
Единственая достойная карта по производительности из 4000 серии это 4090. Даже если отбросить длсс3 и регенирацию кадров, честный скачек производительности. Если собрались покупать 4080, то лучше немного доплатите и возьмите саммый дишман 4090
@@lifebasics9177 как раз наоборот)) оптимизация.... некоторые проекты с 4090 без длсс в 60 стабильные не могут и есть просто плохо оптимизированые. Где та же 4090 даст до 100 кадров. 4090 для обладателей моников 3440:1440 160гц и выше или 4к 120гц и выше. Если вдруг игроделы начнут отлично оптимизировать игры то ты ничего с 4090 не потеряешь и можешь пропустить поколение смело, а то и два.
6800 мощнее не из-за большего количества видеопамяти, а из-за более мощного видео чипа. 6800 это аналог 3080, а не 3070, разумеется 3070 будет слабее, она на уровень ниже
Киберпанк изначально для компа создавался и по этому я на компе с ссд и 2070с с первого дня мог играть с лучами. Майкрософт флай симулятор создавался под комп изначально... А теперь, автор, скажи мне, какой радеон я должен купить взамен 2070 ибо видяхи на нвидиа из дешевых компонентов делают сейчас и видеопамяти нехватает. Я играю в форзу пятую и мне в 4к нехватает 8и гиговой карты. Я вынужден закрывать браузер с 10ю вкладками, чтоб у мння не было просадок по фпс. Хотя у меня 32 гига озу. 3070 или 4070 я бы купил взамен 2070 но в трех перечисленных играх надо больше 8и гигов. Вот и думаю 6800хт брать или 7900хт... А других вариантов и нету больше с 16 гигами и терпимой ценой...
Трассировка Лучей отличная уловка для продаж мощных видеокарт , а не кого не волнует что из-за трассировки лучей игры работают криво всё глючит даже на топовых видеокартах . тут надо понимать купил к примеру 3060TI ставишь настройки высокие без всяких лучей и радуешься хорошим фпс и хорошей картинкой.
Мнение адекватное, но я бы несколько моментов подметил: -3060 действительно хорошая карта, так как рассчитана по большей части на FHD гейминг, а с 12 гигами памяти на борту она явно совсем нескоро в упрётся в требования игр к VRAM. -3070 на данный момент является довольно сомнительной картой и только из-за своих 8 гигов, я ещё верю, что она будет актуальна и дальше, но, вероятно, людям с этой картой придётся пропускать новые неоптимизированные релизы или искать очень сомнительные компромиссные настройки. -Лучи были пустым гиммиком для 2000 серии, 4000 серия вполне тянет рейтрейсинг в нативе, а с длсс 2 фпс уже более, чем играбельный. Сам проходил киберпанк именно с лучами, так как фпс был и так огромным, я ничего не терял. Генерация кадров - немного неоднозначная технология, но плюсов в ней явно больше, чем минусов. -Многие люди хотят покупать железо с гарантией и если смотреть какой-нибудь днс, то 3080 в наличии вообще нет(онлайнтрейд - 70к), а 3080ti стоит дороже, чем 4070ti. Тогда почему бы и не взять новое поколение, учитывая то, что в крупных сетях оно явно выгоднее. Не всем же будет 3060-3070 достаточно.
Это здраво да, прибавить сюда что 4070 жрет гораздо меньше по электричеству чем третья серия и греется меньше, получится отличный выбор. Ну и плюс 4070ти быстрее 3080ти это факт.
@@Sergjji Соглашусь. Именно потому купил 4070. Хоть и чуток дороже чем должна стоить. Но она Duo (2куллера) и хорошо встала в компактный корпус. Тихая и более 63 градусов не греется при максимальной нагрузки. Да 30 серию явно не стоит менять на 40ю. Но я поменял 1070 на 4070. Считаю удачно. Учитывая что 30 серии у нас нет уже в продаже.
@@manul74 с учётом что 4 серия имеет генератор кадров, вообще топ технология, на пустом месте двойной прирост почти. В том же ведьмаке у меня овер 100 кадров, с полной трассировкой, ультра пресет. Вот процессор в конце года поменяю с 7600х на 7800x3d. Это ещё 40-50 кадров сверху. И можно ждать 26 год, когда пятая серия пойдет в тираж. Смотреть сколько будет стоить, с учётом что ажиотажа нету, может будет адекватная цена. С учётом предполагаемых характеристик, там потребность 4к закроет с головой а может и до 8к включительно.
Сам хотел подобный коммент написать, но ты попал в точку. 30 серия хороша для fhd, но для qhd уже хорошо бы иметь минимум 3080 или 3080ti. А это по деньгам как новая 4070ti. Плюс 40 серия кушает меньше. Это если вообще не обращать внимание на существование rtx и dlss. Если включать и их, то 40 линейка раза в 1,5 будет выгоднее чем 30
Да подождем спокойно 5 серию. Скажем так даже для работы с рендером пока важнее камень и оперативка чем видиюха. А поиграть мы и на 3060 можем. Вопрос конечно может и возникнет после покупки 34" моника, но это будем решать потом. Проще 5 плойку взять тогда уж отдельно
4000 тысяч линейка была сделана, что бы что то выпустить на отвали . Если не выпустит то зелёные шреки инвесторы загнобят жабку Хуанга , которая передаваться на ходу . Учитывая всю политику инвидия мне не нравится как она себя сейчас ведёт. Я лучшее предпочту себе Intel arc и амд радион . Сейчас и Арк и Rx 6000 хорошо показывают и больше радует по цене и качеству.
Энергопотребление ниже ощутимо чем у трешки да и разница поколений если брать 3070 ти и 4070ти применрно 40-50%. Так что нормальное поколение вышло по сути.
Насчёт майнеров автор в корне не прав. Ушел эфир с майнинга, но появилось ещё куча других монет. Да, они сейчас на грани 0 по доходности с оплатой розетки, но история циклична...
Собрал зимой ПК на 3060 и i5 12400 и думаю что в ближайшие лет 7 обновляться не буду принципиально. а до этого сидел 6 лет на GTX750ti. А до этого на geforce 9400.
Классный канал, хорошо продаёшь информацию) У меня 3 года стоит 1660 super, карта порадовала, и сейчас хочу уже менять её, смотрел только на nvidia, какую - нибудь rtx 3070 ti или 3080, думал, что с такой картой будет и производительность и лучи, но посмотрев несколько роликов на счёт лучей, понял что они не особо то мне нужны. Видеопамять так же мала, в новинках её хватает впритык. Поэтому уже буду брать AMD rx 6950 xt
@@dunmer2113 с амд если честно немного знаком, больше склоняюсь к nvidia. А так считаю, что какая бы карта не была, надо брать с большей видеопамятью минимум 10 gb, всякие dlss и ретрейсинг уже уходят на второй план.
У амд жесткие недостатки в очень кривом ПО и ужасной работой в рабочих приложениях. Амд тупо только ради игр, если тебе только ради игр, то бери амд спокойно
Открою секрет для 4к ещё нет такой производительной видеокарты чтобы показать такую сочную картинку в играх на ультрах!Производители видеокарт не успевают за выходом новых высокогерцовых мониторов
Ну, тут все очевидно. Видеокарты уже давно имеют тот урвоень производительности, что позволяет купитьс ебе одну, и лет 5 вообще не менять. И нужно было сделать аткую технологию, при которой апрейд был бы необходим. И вот лучи и стали той фишкой. 20 серия была тестовой, людям зашло, но они хотели больше. 30 серия уже на топах позволяля увидеть красивую картуинку, но играть все равно было тяжело, и многие хотели фпс а не крастоу 40 серия дала возможность сидеть с rtx, но теперь добавили трассировку путей, которую не вывозят видяхи даже 80 и 90 модели. У меня на 4080 на льтрах без dlss 30-45 фпс в 2к. Скоро будет повальное внедрение физики в видяхи, чтобы делать чимуляцию жидкостей ветра и прочих погодных условий не заранее сгенерированными, а с просчетам на видяхах. Прост осли не будет прироста в производительности, то зачем покупать новую видяху, а так новая технология повляеться, и нужно купить))) Лично я кайфанул от rt, только в маинкрафте, в других играх такое себе
3060 с 12гб специально делалась для майнеров. Купил себе 3080Ti и радуюсь, тянет все игры в 4К. Когда смотрел презентацию 40-ой серии видеокарт, где показывали все возможности новой линейки, подумал что это круто. Но оказалось не так круто как на самом деле. Очередная лапша для потребителей.
У меня был такой переход 1050(2016г цена 10тыс.р).....1660ti(2019г цена 21тыс.р).....3070(2022г цена 45тысяч) с последней прошел все игры с трасировкой лучей которые хотел и в целом мне понравилось но и вау эффекта не было как после перехода с 1050 на 1660ti например 😂. К чему я это всё....... меня всё устраивает хоть и хочется всегда лучшего во всех аспектах жизни, главное стремление и ценить то что имеете здесь и сейчас:)
Не буду устраивать холивары по поводу лучей и технологий, но давайте будем реалистами: в 2023 году вы врядли станете покупать карточки 10 или 20 серии, остаются 30 и 40. Единственная причина в 2023 покупать 10-20 серию - это требовании ТЗ к собираемому вами ПК. Как ни крути, но даже самая убогая видяха 30 или 40 серии будет лучше по соотношению производительность\теплопакет\цена чем 10-20 серия. Это факты подтвержденные тестами. А вообще, я как обладатель 1050Ti с момента выхода её в продажу и до недавнего времени, и тот кто купил 4090, вот что скажу: 768 cuda VS 16384 cuda, 14 nm VS 5 nm, 24 Gb VS 4 Gb, 112 Gbps VS 1008 Gbps, 1341 Mhz VS 2235 Mhz, 48 TMU VS 512 TMU, 32 ROP VS 176 ROP. Короче, я купил видеокарту которая просто берёт и через колено ломает мою карточку, которая до сих пор исправна и дает стабильные 60 фпс даже в 4к играх, и ломает не просто пополам, она по каждому позвонку отдельно коленом проходится и в конце ещё бьёт ей под дых и в оба глаза. Вот просто взял и купил, лишь посмотрел на её параметры по сравнению с моей. И теперь будет только одна причина для обновления мною видеокарты - отказ от текущей парадигмы компьютеростроения или сгорание 12VHPWR 🤣🤣🤣🤣
Сижу на 1660 super с 2019 года, все абсолютно адекватно работает в fullhd. Были бы игры под которые покупать новые поколения, а так, смысла нету, все и на 1660 работает)
Rtx хорошая штука, но нужно время чтобы ею перестали злоупотреблять и пихать по поводу и без. То как сейчас его используют похоже на забивание гвоздей микроскопом: Технически возможно, но малоэффективно и дорого.
Ток эта карта позиционируется больше для qhd и для qhd она так себе, хотя у меня самого такая карта и 1440p 170hz монитор. Вообще даже и не знаю, есть ли хоть одна хорошая карта из 3000 линейки, может 3080ti 12 Гб если только, да и то не уверен, там чипы горячее
@@godofdeath8785 Эта карта до сих пор нормально тянет и ещё будет тянуть любую игру на 1440 на высоких с dlss quality. Ну и стоит учитывать что карте уже 3 год пошёл. Из 3000 линейки я бы сейчас выделил 3060ти на 6x памяти, которая +- равна 3070, а стоит намного дешевле(причем в топовом исполнении)
@@legit_x2402 У меня тоже фулл ХД 165 герц с этой же картой, и если я что-то точно и понял, так это то, что надо было брать 2к монитор. Попробуй выставь DLDSR 2k + DLSS качество, и у тебя и фпс станет выше и картинка станет лучше, и это при том, что ДЛДСР НЕ = настоящему 2к. Ну а юзать ДЛСС в нативном фулл ХД не всегда бывает круто, в том же киберпанке фулл ХД отстой, мыльная картинка, а с ДСР на 2к или тем более на 2.25x картинка прям сильно лучше становится и можно ДЛСС юзать спокойно уже.
@@godofdeath8785 3070 отлично тянет 3440*1440,а это больше, чем QHD. Да, в некоторых самых требовательных играх надо ставить не "ультра", а "высокие", но это не беда. Не стоит говорить, что карта не тянет qhd из-за пары-тройки неоптимизированных игр) большинство игр тянет абсолютно спокойно в 60-100 ФПС на ультрах
7:17 всё видео полно противоречий. и вообще не имеет смысла, Nvidia как и все остальные компании на рынке зарабатывают продажей своей продукции и они ставят ту цену которую считаю нужной, если бы люди не покупали карты за эти деньги, то они бы продавали их по другой цене. я вообще не понимаю воя о ценах. видеокарты, процессоры, телефоны и прочее не являются обязательными в жизни человека, если ты хочешь видеокарту - зарабатывай на нее.
Мне кажется, что каждый раз когда добавляют "слой удобства" для разраба, производительность падает. И если хотя бы код на С++ в основном щас работает быстрее чем на ассемблере (так как c++ компилятор тупо знает ассемблер лучше среднего программиста), то вот С# с его всеми плюшками подтормаживает так нехило.. может в этом дело и разрабам надо еще въехать как делать и с удобствами и без тормозов
Игры на Unity в 4к зачастую грузят систему как два Киберпанка, при мобильной графике. Я сам C#-разработчик, но игры на C#, мне кажется, делать не стоит.
сейчас очень сложные игры (учитывая все технологии) и так бюджет игр давно перевалил за $100 млн и если будут брать высоко классных программистов которые будут все ручками делать, разработка игр перевалит за 10+ лет и стоимость игр вырастит раз в 10, но ты же не хочешь покупать игры за 20-50к рублей верно? зато будет все супер отптимизираванно)
@@BlackGodMazikи какие сейчас суперпуперсложные технологии? Только про ебаные лучи не говори, который никому не сдались. В ААА полная деградация всего. Графика как в 2010, физика либо такая же, либо урезанная, сюжет блять один и тот же абсолютно (есть один злодей-антогонист, которого надо найти и убить), геймплей тоже. Оптимизация полный пиздец. Ебаный рдр2, который вышел лет 6 назад, даже RTX карты может заставить лагать. Ну вот как так то? Сейчас стоит обратить внимание на инди либо на игры B категории. Тот же helldivers со своими механиками классными или stray с интересной задумкой.
@@BlackGodMazikи раньше тоже ручками никто не делал игры. Для этого и создавали движки - у каждой компании был свой. Сейчас же все переходят под UE5, даже не разбираясь, как он работает
@@justkrit421 ты говоришь про сижет и геймплей, а я говорю про техническую составляющую игры, RTX тебе не нужен а мне например нужен не суди по себе. сглаживаний сейчас существует с 10 разных, технологий освещения тоже штук 10 сейчас также и с отражениями, разрушаемость тоже существует с 10 различных технологий, далее всякие симуляции волос и шерсти которые у разных лагерей AMD и NVIDIA реализованны по разному и все это надо поддержать. а есть еще шейдеры для радужки глаз которые тоже по разному работают. и если раньше в играх использовали ну условно штук 50 различных технологий то сейчас их 500.
1. Проблемы ПК гейминга это оптимизация, на которую сейчас совсем забивают. Лучшая оптимизация на консолях при значительно меньшей прямой производительности. 2. Майнинг не умер, он опять набирает обороты (kaspa например) и 24 год будет очень успешным для тех майнеров, кто на панике не слил все карты по дешевке. Прогнозирую стоимость 4090 через полгода - 250-300к, через 10 мес - 350-450к 3. Не забывайте о проапгейденных версиях консолей к 25 году, вкупе с оптимизацией этот будет отличное и мощное решение для игр, при этом это цельное и готовое устройство для комфортной игры, да и дешевле ПК в любом случае.
Ну а что делала АМД во времена майнинга, она была "святой" компанией, которая продавала игрокам свои новенькие Радеоны 6000 по РРЦ, устанавливала мощную защиту от майнинга, которая на половину срезала хешрейт, создавала новые крутые 3D технологии для игоков и стримеров, которые были совместимы с консолями и наоборот с видеокартами, поэтому карты АМД очень хорошо работали с технологиями Лизы Сунь под названием DirectX 12 Ultimate! Но это всё было в параллельной вселенной, в нашей же вселенной АМД как была аутсайдером, так и осталась! Даже Интел со своими первыми ARC видеокартами, лучше работает с DirectX 12 Ultimate, так как Интел понимает, что рынок консолей надо в будущем постараться захватить! Ну а что у нас с Нвидиа, а эта компания очень плохая, и не нужная игрокам, так как они не создаёт новые мощные видеокарты среднего сегмента, не предлагает новых технологий, поэтому доля видеокарт Нвидиа на мировом рынке всего 15%, а вот у АМД аж 80%, ну это понятно, ведь стримить, заниматся монтажом, играть в игры, в нативном разрешении 4К со всеми прикрученными в игру технологиями, лучше на видеокартах АМД!
@@GameWitcher Эх, жаль у вас компьютера не было вначале 2000-х, где так же видеокарты не могли тянуть новые на тот момент пиксельные шейдеры. И какая нибудь Geforce 5600XT уже тупо захлёбывалась в Фар Крае, что даже мне, что бы поиграть в эту игру приходилось отключать поддержку пиксельных шейдеров через программу Рива Тюнер, от российского разработчика! И играть в Фар Край с ужасным освещением, и ужасной водой!
@@servanwollf Согласен, тогда карты стояли доступных денег, я когда себе купил GTX 770 за 15 тыщ, то у меня ЗП была 25 тыщ, сейчас RTX 4070 стоит 60-65 тыщ, а ЗП у меня 75-80 тыщ, поэтому для меня это уже не доступная видеокарта, так как зарплата у меня почти не увеличилась с 2013 года! 😒🙄
@@GameWitcher Ну если помнишь, тогда ты должен понимать, что история повторяется, и переход с растеризации на Рей Трейсинг был неизбежен, это как сейчас люди переходят с автомобилей, с ДВС, на электрокары, и компании которые выпускают эти самые электрокары, можно так же начать ругать из за их дороговизну, и малого запаса хода!
тож самое 4года просидел на 1080ти - купил за 40к 3080 - да мощнее но без вау эффекта уж точно, красоты от ретрейсинга я так особо и не понял на 3440х1440 144hz но менять ее на 6900хт смысла тоже особого нету...
Сейчас многие переходят на 3060-3080 из-за вкусной цены на вторичке с гарантией, а в магазинах по оверпрайсу не нужная 4000 серия лежит. Мое личное мнение, только 4090 стоит своих денег - остальное не стоит. Сам пересел с 2080ти 11гб на 3080ти 12гб для 2к, очень доволен. Чтобы перейти на 4070ти мне нужно было бы искать еще 25-30к, я подумал, да ну его нах@р.
@@pro100V 2080ти отличная карта и благодаря 11 гб она на перспективу интересней 3070 с 8 гигами. Просто я ей владел с октября 2020 года (кстати также взял её как раз на релизе следующей серии), увидел выгодное предложение и воспользовался им.
В общем прекрасный ролик, но не учел тему с видеопамятью. То есть, может разница 3070 и 4070 - 15% в среднем, но если игра упирается в память то вырастет и до 50%. А еще для кого то может быть важно что 4070 сама по себе меньше и менее прожорлива. Так же есть интересное сравнение что прямой конкурент по цене - 6800xt в том же cyberpunk дает в 2 раза меньше кадров на ультра настройках и реальная задержка управления тоже в 2 раза больше. Но это с включенным dlss 3, который явно поправят со временем.
Так и что же, стоит переплатить 25к за 4070? Имхо что 4070 что 3070 брать не стоит - одна оверпрайс, а другая не имеет будущего из-за 8гб памяти. Лучше подождать снижения цен на 40 линейку, либо закатать губу и взять 3060
@@Gasovan Разница между 3070 и 4070 должна быть что то около 100 долларов. Что как бы не много совсем. Если продают дороже рекомендуемой цены 4070ti значит дикие накрутки!
за графикой ни когда не гнался , у меня была видюха 760 , потом взял хлам от амд что там 290 , потом взял 1660 супер от палит , кто бы что не говорил , но он мой дом не спалил и скажу больше , очень хорошая видюха , до сих пор работает на отлично , сегодня взял rtx 3060 и думаю что мне хватит на года три , а то и четыре это точно . 12600к , 32 оперативы , ссд на 512 и 1 гиг , 3060 видюха . ушло немерено много денег но я рад , для работы и игр самое то !
Хоспаде купил в 2019 году 2070 super за 40т.р. и смотрел на всю эту майнинговую вакханалию с ехидной ухмылкой. в full hd тянет всё на ура до сих пор. Сидим спокойно до пятитысячной серии
Спасибо за видео! На Ютубе не часто встретишь таких информативных и грамотно поданых материалов. Буду ждать новых аналитичесих видео в таком же ключе про игровую индустрию. Мне, как геймера и человека интересующегося индустрией игр в самом широком смысле (включая всякую техническую аналитику) не хватает таких каналов, которые понятно и, главное, ДУШЕВНО рассказывают про все это. Буду следить за каналом. Удачи и много подписчиков:)
@@GameWitcher Спасибо, обязательно приду! Как раз сейчас хочу обновить ПК и у меня такой вот вопрос: стоит ли брать RTX 4070 в свете того, что видеокарты тридцатого поколения (в частности 3070 и 3080) как бы потихоньку "уходят" из рынка (в свете маркетинговой политики NVIDIA)? И вообще интересен Ваше общее мнение про 4070. Спасибо.
Видел как на форумах обсуждали есть ли динозавры, которые пользуются v sync, которую никто не использует. Учитывая, что она отклик увеличивает и задержку кадров, из-за чего теряется плавность. Я наконец раскопал динозавра
пересел недавно с обычной 1050 на 6700хт (видно, что мне не до топовых видеокарт), но политика нвидии (особенно в отношении объема видеопамяти) весьма удручает.
Сам чуть нвидиа не взял пару дней назад. Всегда вроде гарант качества, а в процессе поиска видяхи увидел тесты 6700хт и 3070ти. 6700 совсем немного отстаёт, а где то показывает лучшие результаты, но она мне обошлась в 40к, тогда как 3070ти стоит около 60 или 70, точно не помню
Месяц назад я тоже стал «счастливым» обладателем 4090, взял ее на замену 3070ти, которая ещё вполне нормально работала, но захотелось какого то «мощного» обновления железа) Так вот, когда я ее покупал, думал что теперь то мне откроется мир безкомпромиссного 4к гейминга, но я ещё никогда так не ошибался)) Спору нет, почти все игры стали идти стабильно в честных 4к и всякие свистоперделки по типу длсс попросту не нужны, но какого то «вау» эффекта я все равно не ощутил, и в некоторых играх фпс все равно проседает. Самое удивительное в том, что самая крутая графика в нынешнем поколении для меня все равно была во втором хорайзоне, в которую я игра на пс5 и эта самая пс 5 стоила почти в три раза дешевле чем одна 4090))) Вот и думайте, кому вообще нужны все эти железки)
@@GameWitcher А самые красивые здания сделаны в ручную без использования современной строительной техники! Только есть маааленькая проблема, красивые соборы делали многие 10-ки лет, а небоскрёб можно за пару лет слепить, используя современную строительную технику!
Ну я уже кому-то в споре писал. Мне начали писать что AMD не тянит лучи то-есть фан база лучей. Они да-же не фан база NVIDIA. Это какая-то новая секта. На что я попрасил описать достоинства RT ядер не считая работы. Там RT ядра отбивают деньги на 100% и притензий нет к данным людям взявших 4090. У меня и 4070Ti ELITE то-же все игры в 2к тянет просто на ура как и 3090Ti. На счёт 3060 ставите в мониторе G-Syng +120hrz + 4к + ограничения FPS в драйвере 30fps. Шейдеры успевают обробатыватся и 3060 12Gb в таком режиме тянет на Ультра или Высокие + RT без DLSS в многих играх в некоторых можно включать DLSS 2.1. И получается что в таком режиме 3060 просто много кратно превосходит консоль в качестве самой кортинке. В таком режиме той-же 3060 и 2080 хватит ещё на 5-6 лет. Не нужно бижать за людьми которым подовай 4к + хз что такое Ультра + 144hrz. Это болезнь и она с возростом проходит.
@@GameWitcher самые красивые игры были на движках cryengine, и unreal engine. Бэтмен 15 года до сих пор ахирительно выглядит, и работает на любом компе. С момента выхода crysis особо не поменялось ничего в графическом плане. Разве что игры стали требовательнее и мыльнее. Шутки про кинцо мыльцо со времен Дрейка я так понимаю еще актуальны?)))
Nvidia это не единственная компания на рынке. Я отдаю предпочтение AMD, их 7900 XTX это самое выходное решение на данный момент по соотношению fps/$ А покупать RTX 4090 чтобы покрыть за свой счет криворукость программистов и жадность менеджеров… нахера? Есть отличный пример: Doom Eternal, который выдает 60 кадров в 4К с включенным рейтрейсингом на XBox, где стоит чип от AMD. Все дело в качестве инженеров, а не в мощности GPU.
3060 вполне вывозит и средний ray tracing, а то и выше если хорошо сбалансировать, а так будущее технологии туманно, поскольку не во всех играх, а даже там где лучи есть, то не во всех местах рабатают как надо, другими словами реалистично, уступая той же Lumen на UE5, которая к слову ресурсов жрёт куда меньше.
Сборка с 3060 почти стоит как и 3060 ti,которая по цене как и rx 6700 xt,смысл тогда покупать зелёных,если эта АМД карта их всех превосходит,лишь потому что она от зелёных?
@@rick39413 Ну как сказать, зачем покупать графики с трассировкой, и её не использовать, у 6700XT это дело работает на уровне прошлого поколения от зелёных, по поводу цен, 3060TI и 3060, на момент покупки мной последней стоили одинаково, однако корпорация дегенератов в лице hynix пустила в ход партию 3060TI с браком чипов памяти с вероятностью в более чем 50% что 3060TI сгорит, не проработав и двух лет, а что касается производительности 6700XT, да она уделывает двух вышеописанных конкурентов, но её прямым конкурентом, является 3070TI и не меньше, превосходство красных в производительности остаётся на уровне погрешности, единственная по настоящему весомая причина взять графику от красных: цена.
@@rick39413 у 3060ти мало видеопамяти и в будущих играх она сольет 3060 12. А fsr 2.0 хуже чем dlss 2.0. Я так понимаю fsr 2.0 качество = dlss 2.0 баланс. Если так, то разница между 3060 и 6700хт вообще процентов 10-15 будет, зато у 3060 есть лучи, а 6700хт их не тянет.
@@Alon794 боже,rtx 3060 хуже тянет лучи,чем rx 6700 xt потому что 3060 сильно слабее 6700,если что 3060 ti слабее 6700 xt,а 3060 ti сильнее на 20 кадров в играх чем 3060
Как человек работающий с источниками и впоследствии использую оные для анализа, могу сказать, что вы не плохо проделали работу. Говорят, что нвидия искусственно не повышвет версию длсс 2. Как владелец 3080, мне смешно видеть когда в ТЛОУ падает фпс на ровном месте, в новом Вархаммере посредсивенная картинка, но требования - моё почтение. Следующую карты попытаюсь купить не Н-Видия, хотя бы из вредности.
я как раз считаю, что технология лучей хороша и нужна, но сейчас за неё от нас хотят слишком много денег. Яб вообще на радики смотрел. Там где красные плохо тянут лучи и зеленым нужен длсс 1070 стоила 35к вообще если кто забыл и была значительно мощней если сравнить 1070 к 1080ti и 4070 к 4090. Так 4070 мало того что сильно слабей так еще и стоить будет дохрена. Не, спасибо куртка, играйся с ней сам
сменил недавно 1070 на 2060S, не для экстремальных настроек конечно, но пока хватает, правда в фхд. Переплачивать 50% к стоимости за 3060ю как то желания не возникло (по сути переплата не за производительность даже, а за дополнительные 4ГБ видеопамяти). Лучше потом сразу прыгнуть на какую нибудь 5060\6060, рано или поздно будет модель с адектватным соотношением цены\производительности\объема памяти (а 4060 по слухам так урежут, что вероятно кроме как в длсс3 она нигде хороших результатов показать не сможет).
2060S с DLSS вполне тянет 3840:1600 с фрисинком одиночки. Даже и лучи включаю (лучи конечно не ультровые). Выше 40 fps фрисинк убирает все разрывы и картинка плавная.
Если из гпу убрать тензерные ядра, и дополнить все это обычными графическими блоками получим хорошую производительность, так что упор тут не в техпроцесс... Если бы делали так gtx 4090 она нормально бы работала с 4к
А я считаю что вы все больные люди, которым некуда деть денег кто гонится за этими 2к и 4к! Fhd самое топовое и рациональное разрешение в плане, цена, качество картинки, производительность - золотая середина, для ПК гейминга. Кормите маркетологов за нефиг делать! все эти 2к и 4к придуманы маркетологами чтоб выжать максимум из людей деньги на более дорогие видеокарты которые нужны для этих разрешений. Обманываете и утешаете себя - оправдывая свои затраты тем что якобы 2к и 4к просто нереально бомбически круче в сто раз по сравнению с мониторами FHD. Все это относительно, а вы просто самоутешаетесь оправдывая свои ненужные затраты! Сейчас умники для самоутверждения начнут тут писать что мол такое утверждение у тебя что ты не можешь позволить себе 2к или 4к гейминг - НЕТ как раз могу но не хочу кормить обозревших маркетологов. А такое утверждение у меня, как раз потому что я имел опыт сравнения 4к и 2к, и сделал для себя выводы, ну а вы делайте для себя - продолжайте самоутверждаться, обманывать себя, и выбрасывать деньги на ветер!
Радеоны в целом не плохие. При этом поддержка старых карт, в драйверах обеспечена минимум на 5 лет. Сам сидел на 580 с 18 года. И с каждым новым(почти) драйвером получал +фпс.
Всю жизнь сидел на nvidia, но с выходом 40ых карт наглости мистера Хуанга нету предела. 4070 по цене 6950xt, для меня выбор в пользу amd стал очевиден.
Я смотрю сейчас на 4000 поколение и у меня цензурных слов нет, чтобы это описать. При сравнении с 3000ками той же (+/-) ценовой категории выпускается какой-то голимый обрезанный low-end, который объективно по площади кристалла и сложности РСВ должен стоить в разы ниже (4070/Ti с 192-бит памятью и 12 Гб, а начиная с 4060/Ti уже вообще 128-бит вроде как, уржаться). Производительность на бакс почти не изменилась вовсе, в глотку силой пихается этот унылый лохо-чит в виде генерирования липовых псевдо-кадров DLSS3, ну, потому что понятно, что без него сравнение производительности на бакс в лоб с 3000 серией было бы совсем плачевным. Единственно, чему можно отдать должное, это 4090, у которого рост реальной (а не липовой) производительности против 3090 весьма неплох, да ещё и шину и объём памяти умудрились не порезать, низкий поклон, барин
Ну да шина 192 у четверок, а шустрее чем шина 386 у трешек. Интересно выходит. Тоже самое что взять камень 12 ядерник на сокете какойнибудь 2011в3 и взять 12 ядерник 22 года, разница будет колосальная не в пользу 2011 года выпуска, но ядер то идентично же ну и кеша там почти столько же) Смотирте не на циферки а на реальные приложения. Объективно 4ка быстрее 3ки, это факт.
Видео в целом хорошо. Но др*чь на 3060, и как она там без ray tracing 'а всё тянет... У самого rtx 3060 и в фортнайт с lumen высоком ( далее идёт ультра, и только 2 опции) + dlss в качество на full hd(тс рендер игры идёт в 720p) - выдаёт 45-50 fps. Не получите вы свои 60 с lumen в unreal engine 5 на 3060. Точили движок под консоли с RDNA 2 архитектурой. Либо берите видеокары от amd, либо смотрите в сторону консолей и держите в голове, что разница где-то 15% между картами от nvidia и amd.
PS. не терпится посмотрел на лица людей, которые собирали свой пк "как аналог ps5" с rtx 3060 ti и будут получать те же 30 fps в новых играх на unreal engine 5 🤠🤦♀️
Большое спасибо, автор. Посмотрел-все правильно. У самого 3080ti fe, поначалу расстроился, что купил, т. к. быстро вышла 4000 серия, но сейчас понятно, что все нормально..
Я присматриваюсь между 4080 и 7900xtx, по тестам они примерно равны, как и по стоимости, , но я себе возьму 7900xtx однозначно,так как уверен, что года через два 7900xtx будет в играх процентов на 15 быстрее 4080.Проверил это на своём опыте, что спустя годы карты амд превосходят карты нвидиа, в той же ценовой категории.
Я зимой купил rtx 3080 ftw3 от evga б/у за 53 кило рубля и радуюсь великолепной производительности во всех играх и конечно без ray tracing, а то толку ноль от этой технологии как и говорилось в ролике. А так советую вместо 4070 купить 3080 на треть дешевле а производительность одна и та же, а если у вас full hd монитор то лучше купить 3060 12gb тащит всё и видео памяти много.
3090 и 4090 это не игровые карты а титаны переименованные! прям какая то феноменальная паранойя игры делают на персональных компах для консолей потом не могут нормально перенести на комп!🙃 А так конечно всё верно сказал, логично рассуждает!
@@eligorko2012а ты приверженец терять 50-70% производительности ради лучиков и каждый год покупать новое поколение с надеждой, что вот сейчас наконец-то будет 100+ фпс на 4к?) Там потом выйдет 8к, можно будет ещё на десяток поколений вперёд стричь бабки с "лохов"
@@justkrit421 а кто говорит про 100+ фпс на 4к? Мне вполне хватает 100+ на 2к, я не настолько зажрался. Плюс банально не забываем про dlss и генерацию кадров, которые и компенсируют падение производительности, которое, кстати, составляет всего около 35-40%, так что не вижу втом проблемы
кто может купить 4090 просто так, у них вопрос покупки не стоит, остальным же нафиг не надо, я купил 3090ти, на радостях когда цены рухнули, проверил киберпук 77, а после играл обычные игры, которые не то что на 3060 прекрасно идут, на 960 жифорсе работать будут. Разве что заменил 1080ти, котоаря прекрасно работала и тянула ремейк 4 резидента без проблем, но уже сильно постарела и шумела.
Сейчас брать rtx 2060 super топ. Выйдет 4060 и 4050 глянуть что с ценами, чуть что на условную rtx 5050 думаю можно обновиться. Вообще за dllss,+ fg будущее
Взял себе в январе 3070 для FullHD,ну что сказать,с такими оптимизациями,как во многих современных играх,ее уже и для FHD не хватает для стабильных приемлимых кадров...не говоря уже о включении трассировки....например Watch Dogs Legion и Человек паук ремастеред,я не смог играть на ПОЛНЫХ ультрах с максимальной трассировкой,так как просаживает кадры до 50 и даже ниже,этим технологиям еще развиваться и развиваться....прогресс не остановить и все эти карты и процессоры и прочее,будет скоро выходить каждые полгода новые,чтобы все бежали за ними.А так,ты все верно и четко сказал,солидарен с тобой полностью!
У меня 4090, но честно говоря вообще не вижу смысла сейчас гнаться за новинками. Оптимизация в основном ужасная, а картинка не соответствует той цене которую платишь. Всё из-за сговора Nvidia, а также становления Unreal Engine стандартом.
@@Лёхич-е3н есть, но это я специально всматривался и мышкой неестественно быстро водил. Если просто играть,то ничего не заметно. Думаю ещё со временем доработают как и первый DLSS, и вообще здорово будет
У Nvidia народные 4060 и 4060ti в этом поколении вышли полным мусором и казалось бы AMD можно легко тут завоевать рынок, но видимо у них там какой-то семейный сговор и нормальных бюджетных карт на 12-16 гигов от AMD тупо нет и не ясно когда они выйдут. В итоге сейчас выгоднее всего брать карты 30хх и 60хх серии от Nvidia и AMD.
И да, топ 50 серим если и будет лучше топа 40 серии то только за счёт большего числа чипсетов ( что вряд-ли, т.к. щас они и так жрут под 600 ват) или если нвидиа оптимизирует ядра по новому, добавит супер новую технологию обработки, просто увеличит количество блоков для ИИ и лучей. Само количество ядер куда сильно увеличивать это как стрелять себе в ногу в текущих реалиях. Получится мощь, которая будет обогревать многоквартирный дом в холодную зиму...
NVIDIA вернется в майнинг , придумают что-то, и люди снова начнут всё сметать) от геймеров похоже денег не дождутся. Сам в сентябре купил комп с 3070. Но сейчас всё чаще вижу новости о том, что 8гб мало...
Хуанг со своими 8 gb и на дорогих карточках по типу 4070 ti всего 12,заставляет переходить на красных,мне все равно пк нужен для просмотра фильмов и игр,а не баловаться в блендерах
RTX3060 12Gb свою купил как раз в этом году, после бума майнинга, прекрасная карта для FullHD и 2K, что-то лучше особо и смысла брать нет, игры летают. RTX4060 8Gb и RTX4060Ti 8Gb уже откровенно неудачные вышли и дикий оверпрайс
Просто Хуангу сейчас мягко говоря отнюдь не до геймеров . Они сконцентрировались на ии и на данный момент прекрасно мебя чувствуют. С бумом того же chatgpt или MidJourney стали очень востребованы профессиональные решения от нвидиа. На данный момент стоимость компании достигла 1 триллиона долларов. С одной стороны конечно прикольно, но с другой, это значит на геймеров ему будет насрать побольшей части. Тут уже тогда можно ждать пока на рвнок выйдут battlemage от интел и амд начнет брать больше рынок.
3 нанометровый тех процесс это уже предел их не будут выпускать, оч уж дорого обходиться производство что за собой влечет на выходе запредельную стоимость продукта, то есть купят только разве что «дети Илона Маска» что является нерентабельным… такие дела
Хорошая, последовательная и грамотная подача аргументов. В любом случае, владельцы RTX 2000, да и 1000ных (от 1066 и выше) карт вполне уверенно продолжат себя чувствовать в поколении PS5. Если кто думает обновляться - раньше 5000ой линейки вообще задумываться не стоит, и то, как выкатят - там надо будет посмотреть, что предложат и будет ли оно того стоить. Вполне вероятно, что там память все-таки наконец то насыпят как положено, чипы еще прибавят - тогда на цены и посмотрим. У кого карты производительной нет, а собрать надо сейчас - тоже момент хороший - 3060, 2060S, рыксы - можно смело брать и не трястись, что завтра Хаунг перевернет геймдев:)
@@maximlar236 отличная карта, ей не хватает разве что dlss для новинок в высоких разрешениях. Хотя немного покурутив настройки и сейчас все тянуть. без этих ваших эртэиксов:)
RTX в принципе одна из таких технологий, которые сложно сделать в реальном времени. Проблема не в nvidia, проблема даже не в разработчиках. Проблема скорее в том, что внедрение таких технологий требует времени, пока не появятся оптимизированные алгоритмы для достаточно производительного железа.
@@GameWitcher Почему не работают?) Работают же, только технологии очень требовательны к железу. Если хочешь включать - включай. Никто ведь не заставляет. В противном случае будет уменьшение частоты кадров, как это всегда было со всеми технологиями: MSAA, фильтрация текстур, SSAO и т.д. На примере того же Crysis 2007, когда современные видеокарты не могли его тянуть. Только сейчас есть DLSS/FSR, которые однажды скорее всего просто будут включены по умолчанию, и будут просто подстраивать частоту кадров под игру. Видеоролики на YT точно так же поддерживают стабильное разрешение и частоту кадров, но при появлении сильных высокочастотных шумов шакалятся. Вопрос времени будет только в том, насколько быстро оптимизируют технологии и железо, чтобы всего можно было добиваться без помощи апскейлинга/интерполяции. Но скорее всего оптимизация будет приводить не к улучшению FPS, а к использованию освободившихся ресурсов для добавления ещё большего числа фич,. Распространение звука, например.