Попробовал максимально раскрыть тему субдискретизации и Битности для телевизоров, Если кто не в теме то обязательно к просмотру! www.displaynin... pid.samsungdis...
Отлично рассказал и грамотно, респект, все понятно и наглядно, спасибо за труд. Подписался. Вот этот ликбез необходим продавцам и тот кто покупает телевизор
Браво. После этого видео, не нужно больше искать, отличия в битности на ютубе. Всё правильно, много зависит от контента. Это как купить тв с HDR и смотреть Т2. Если HDR не пришёл, то и он его не покажет. Так же и тут, если не пришло 10 бит 4.4.4 то его на экране не будет. Спасибо тебе мужик.
Могу поделиться личным опытом с 8 бит+ FRC или 10 бит. Если смотри кабельное или цифровое ТВ, то тут 8 бит+ FRC, (ИМХО) но на мой взгляд не стоит сильно обращать внимание на битность матрицы, лучше заострить внимание на то, как ТВ апскейлит картинку и справляется шумами. На мой взгляд тут лучше диагональ побольше взять, толку будет куда больше. Если любитель качественно контента и особенно видеоигр, то тут однозначно- 10 бит, картинка цветастее, чётче, в HDR это особенно заметно. Так-что по возможности лучше доплатить.
Все игры идут в 8 бит, за исключением игр с изначальной поддержкой HDR, но такие игры по пальцам можно пересчитать. Так что и не нужоны нам ваши 10 бит. И 8bit + frc вносит очень сильную задержку, так что для игр такое. Тут надо у целом смотреть на цветовой охват монитора или телевизора если уж так нужна сочность.
Фотография которую автор называет " со ступеньками" это не прямое сравнение, а как пример ( зеркалки тоже есть полноценные и кропнутые) на что обращать внимание, что в 8бит-ной матрице не такие плавные и четкие переходы как у 10бит, так я понимаю сравнение этих двух фотографий, а что там говорят продаваны мне побоку. В прошлом году покупал телевизор, некоторую информацию смотрел на сайте "дисплей спецификации" и что интересно, что с выходом моделей 2020 года, мой телевизор утратил по многим параметрам, и матрица стала 8 бит, а была полноценные 10 при 120 частоте, никому верить нельзя.
Разница будет. Аж бесит что утверждаете обратное. Опять же с примером неба! Есть разница 200 оттенков будет синего или 1000? Всегда видно на ровном цвете
я не спорю, просто показываю и обосную саму технологию, если вы уверены что вы можете отличить, то тут даже нет смысла спорить, надо брать то что дарит радость
Хотелось бы дополнить. Не особо рассчитывайте что сможете в играх и 4К фильмах насладиться 10бит без субдискретизации. Современные приставки переключаются в режим 4.2.2 или 4.2.0 без возможности изменения. И контент в кино индустрии идёт в 4.2.2 или 4.2.0. Так что 10 бит в ТВ может и быть, а контент - отсутствует.
Здравствуйте, может вы подскажите. В итоге всё равно непонятно, что лучше RGB 8бит 4-4-4 или YCbCr 10 бит 4-2-0? И почему? Везде спрашиваю, никто не знает, зато все умничают про различные субдискретизации. =) RGB 8 bit это ведь 16млн оттенков, а YCbCr 10 бит 4-2-0 это 267,5млн оттенков. Памагите понять!
@@Obidin7 Ну если я подключаю ПК, и смотрю его в режиме HDR кино. То при режиме RGB ведь будет показывать не правильно. Ведь все фильмы в HDR записаны в 4-2-0 10бит, и компьютер прекрасно поддерживает такой режим. Так вот и меня мучает вопрос. Зачем или для чего все всегда рекомендуют устаревший режим RGB? Для чего вы так делаете?
10 бит YUV420 - это стандартный формат цвета для записи и передачи HDR изображения. ... И большинство 4K HDR контента в принципе (UHD HDR Blu-Ray, Netflix, Amazon) в таком формате цвета и кодируется. И в таком формате обычно и по HDMI передаётся. Так что никакой половины цветов там не теряется. Это вот правда!.
Добрый день. Сегодня уже на рынке мониторы с «квантовыми точками» Quantum dot, и технология “8 bit + FRC”. Можете пару слов сказать, стоит ли смотреть в сторону этих самых квантовых точек, или это больше маркетинговый ход и от мониторов без них, ощутимой разрицы нет? Или все же цвета становятся действительно более насыщенными и яркими? И вопрос о FRC, я так понимаю, стандартных 8 bit будет абсолютно достаточно. Меньше мерцаний по сравнению с технологией FRC? Заранее благодарен за ответы, сейчас подбираю монитор, и остановился на двух MSI G274QRF-QD E2 и ASUS Strix XG27ACS.. еще рассматриваю ASUS ProArt PA278CGV.. спасибо.
На 8 бит+FRC мониторе открываешь фотошоп задаёшь градиент и видишь лесенку в переходе от одного тона к другому. На 10 бит мониторе этого нет. Какие ещё вопросы ? Другое дело , что кому-то эта вся хрень до лампочки.😁
Достаточно много сейчас появляется фильмов в сети, особенно 4К, с цветом 10.bit. И Dolby vision уже тоже есть. Через пару лет такого контента будет полно. Хороший телевизор покупается на более длительный срок. ЗА ИНФУ = 👍
Спс за инфу, но я так и не разобралса с етим... Стало понятно что биты битами, а первоисточник первоисточником, и если даных нет то все зависит от качества апскейла (процессор...) Но все начилось из инфы что, якобы, "настоящего" HDR при 8ми битах - не б ывает, что ето обман. Так что ж такое HDR? Что обеспечивает его работу? Если допустим речь идет о консоли: Xbox поддержывает HDR, теперь уже и dolby vision. Тут не идет речь про апскейл, обработку изображения процессором, ибо я так понимаю тв работает как монитор? Так что обеспечивает роботу hdr? Консоль как источник сигнала, или тв? И при чем здесь битность? Тут говорят важна яркость... Можете подсказать проще говоря стоит ли брать под консоль бюджетн ый тв если я допустим хочу етого hdr? Например в тв skyworth вообше заявлен dolby vision.... Ето возможно?
Добрый,то есть я правильно понял, в принципе на процессор нагрузка ложится больше если это 4к ,тот же процессор в full hd 1080р к примеру обработает изображение лучше?
ну вот в этом и причина , почему даже средний китай спокойно тянет 1080Р но с 4к (не демо ролики) большие проблемы , более того мало еще 4К так там еще hdr, это дело тоже требует ресурсы , у меня много сравнений пример хайсенс u7, 1080 шикарно а вот hdr провалы
@@Darth-xc6tz скажем так , топы 1080 прошлых лет на голову лучше чем средние 4к, просто тут одна беда , новые телевизоры могут читать формат hevc и 60кадров , если у вас смарт приставка , то проблем нет,
@@Darth-xc6tz тут скорее игра, производители придумывают то что вам р мне не надо , но!! Им надо заработать, в итоге они придумали 4к, однако сбросили все техналоги с 4к на ноль, потом опять начали с каждым годом добавлять немного того немного сего, вспоминая Самсунги 8-9серии на 1080 матрицах, могу сказать что они были крайне качественные ,
Картинка с волнами напоминает мне, как сравнивают 60 и 120 Гц при ооочень замедленной сьемке. Типа как урезаны кадры. Но контент то мы смотрим в обычной скорости))
как телек выбрать. раньше были ящики японские и качество было лучше 100гц. теперь ЖК качество хуже мерцает экран . картинка застревает при движении. вопрос. ? на какие характеристики смотреть кроме процессора потому что процессор вообще не пишут. что бы на современых жк картинка была не хуже чем на старых японский ящиках сони и панасоник??? там еще интерфейс что бы был удобный.
Подскажите пожалуйста. Как быть с таким моментом, что некоторые 10бит матрицы не поддерживают 100% цветовой охват dci-p3, а новые 8 бит + frc такой охват поддерживают?
Полного контента в 10 бит нет, это правда. Но в моей приставке, стоит последняя прошивка, которая преобразует все full HD фильмы на 8 бит, в полноценные 10бит, 4:4:4 . Это я вам скажу, полный улёт, товарищи! Кстати, только после установки этой прошивки, я узнал, что у моего тв, 10-ти битная матрица.
Спасибо за интересный материал! В принципе, выводы совпадали с моими рассуждениями. Возник только один вопрос. Из материала, как я понял, понятия 4-4-4, 4-2-2 и 4-2-0 относятся к пикселизации изображения и сжатию спектра по цветоразностным каналам, получается, это не имеет прямого отношения к 8 или 10 битной дискретизации сигнала? Если так и 2 дополнительных бита лишь позволяют снизить ошибки вычисления и уменьшить количество артефактов на изображении, тогда непонятно для чего вообще 10-битная матрица? Разве не достаточно использовать 10 бит при вычислении, а изображение выводить на 8 битную матрицу?
Прочитал что настоящий hdr работает только при 10 битах и большом запасе яркости. И вот фотограф обяснил что снятое в 8 битах при обработке например затемнение или засветить приводит к потере деталей информации и появлению неправильных цветовых градаций.
Неграмотно раскрыта тема, много ошибок. Соседние пиксели крайне редко бывают разных цветов, а чтобы ещё и все несколько - это практически исключено, на чём и строятся подобные алгоритмы, что и нужно понимать в первую очередь.
Не понял только одно - при чём тут субдискретизация если видео про битность? 😏 Это как сравнивать мягкое и горькое 😁 Субдискретизация это очень важно для понимания но это совершенно из другой оперы. Градиент бы лучше сравнили и показали на матрицах 10 и 8 бит.
Ваши выводы полностью противоречат многим статьям в интернете и даже LG. На сайте LG четко указано, что просмотр без 10 бит HDR видео не даёт настоящей картинки , задуманной режиссёрами. У меня дома новый филипс HDR 58 диагональ 8 бит и много контента HDR и долби вижион и обычного 4 к . Разницы ни какой в картинке. Зато блюрей диски с плеера панасоник в разы круче картинка даже full Hd 1080p. Где логика?
@@LizBarbarian Нагибает, но у меня был 36" кинескопный телевизор но показывал в 720р и менее 200к . Сдох .... Заменил на ОЛЕД лыжу А1 65" рад : небо и земля, хоть за цифровой кинескопный платил когда то 3,5 штуки баксов.
Насколько я знаю, то производители телевизоров последние 3 года наоборот втирают людям, что 8 бит+ frc почти не отличается от 10 бит, т. к. 10 бит производить дорого и все последние модели делают 8 бит.)))
Ну , дело дошло до того что во всем мире нет понятие 10 бит и 8+frc, все это и есть 10 бит, скажем так тихо нас толкают смотреть на оледы и 8к , может это некий сговор , может желание сэкономит, но даже на телефоны начали пихать 10 бит и 1500 Нит, а на ТВ 400нит и 8 бит
Как раз парился с этим. Два телека Sony 75", один 8bit+frc 60hz, второй 10bit 120hz. Оба 2020 года, разница в цене 30.000 тыс.руб. Или 65" 10bit 120hz vs 75" с 8bit(frc) 60hz. Диагональ или лучшие характеристики на бумаге. Разницу в размере точно заметишь, а вот разницу в битах не всегда.
@@pro4223 Выбрал 8бит, 10 в наличии не было. А на консоли PS5 или Series X игры сколько бит? Да и там наврядли разрабы будут париться с добавлением миллиард цветов для 10 бит. Дай Бог если миллионы ессть :) Если конечно в будущем нейросеть или еще какие нибудь движки автоматом будут красить мир. Но тогда там мощности никакой не хватит нынешней может быть.
@@BRIJILIANT ну смотрите, весь смысл 10 бит, это в градации реальных цветов, как понимаете игры это вымысел, и в первую очередь цвет неба или мира строится не иза физического явления , а как художник нарисовал, это я все к тому что 10 бит в играх , особенно в динамических не так уж и видно ,
@@pro4223 спасибо понятно. А то до сих пор в думке, что может поспешил и нужно было искать 10 бит с VA. Как думаете, 94000 тыс.руб за Sony 75" дюймов XH8096 нормальная цена?
8 бит 16 млн цветов 10 бит 1 млрд цветов Китай уже смартфоны сделал с 12 битными экранами 68 млрд цветов правда не знаю они честные или просто фейк 😂 18:07 на фотке с права футболка чернее на 10 битной матрице когда через смартфон amoled экраном Samsung смотришь видно сразу хотя у меня не 1 млрд цветов телефон а всего то 16 млн на флагманах новых ещё что то может можно заметить 🤔
@@leshaemoy6204 Повторяю, что ниже 500 кандел, 10 бит невозможно отобразить. Это закон физики. Их просто не будет видно, так как не хватит яркости, чтобы отобразить все градации.
ахахаха, а что именно выдумка ? вы меня конечно простите , )) и я вообще не профессионал, а тему я раскрыл, но если что не то или не понятно спросите или точно укажите ,
Хорошее объяснение. Спасибо. Я тоже угарал с этой картинки в интернете со ступеньками. У меня тн матрица на мониторе 6 бит. И спрашивается как я тогда вижу на нём плавную картинку справа)) такие очковтиратели..
@@pro4223 monteon.ru вот этот тест монитора хорош. на первой вкладке теста "контрастность и яркость" на моём 6 битном мониторе видно только белые вложенные квадраты. красный, зелёный, синий без признаков квадратов. на телевизоре смарттв моём 8 битном не видно только красных вписанных квадратов. а на телефоне видно всё.
так тут дело не в 10 бит)) а в том что камера не умеет снимать видео в высоком битрейте , да и при тяжелых сценах с освещением автоматически задирает исо , ну или я не понял посыл
@@pro4223 На улице в солнечный день в Дубае ни одна камера не будет задирать исо. Посылка том, что на небе прекрасно видно как один кубик идёт за другим, отличаясь оттенком синего. При 10 битной градации таких кубов нет
@@zhenyapestun ну и в видео на 16,54 камера еще как задрала исо, так как вообще не умеет работать с контровым светом и крайне малый динамически диапазон, для чего задрал?? чтобы лицо было видно , так как он не может отработать сверх яркое небо,
@@pro4223 Вот вам пожалуйста тест gh5 ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-9GJfhNwZXHc.html небо тоже в труху. С этим бесполезно спорить. Меня это ещё с 2009года бесит, когда фотографировал на зеркалу пейзажи и на чистом небе это всегда было различимо
Блин ну вы и заделали видео про битность ! А вообще надо стараться гнаться за битностью !!! Все довольно просто ! 8 бит=16.7 млн цветов. 10 бит = 1 млр с чем-то ! FRC это световой обман для наших глаз - она быстро моргает ( мерцает) меняя яркость подсветки и тем самым изменяя оттенки , но эти оттенки получается за счет уменьшения(повышения) яркости . По сути 10 бит-значит и дисплей сам по себе высокого качества . Наш глаз не воспринимает конечно 1 млрд . цветов , но такая битность позволяет избавиться от ореолов в цветовых оттенках в сложных динамических сценах(типа огня в темноте ) , которые можно рассмотреть при стоп-кадре. Написал коротко и ясно , а то ваше видео почти на полчаса .
я старался донести другое , что мало иметь прибор , надо еще взять контент для него, а сейчас такого контента почти нет , да и если брать торренты то там одни рипы
Наш глаз воспринимает полностью 10 бит. За примерами далеко ходить не надо. Вспомнить хотя бы ушедшую технологию ЭЛТ. Так там глубина цвета у топовых моделей могла доходить до 24 бит. И да, я разницу со своими VA(телевизор), ips (ноутбук) и убогой TN вижу. Записал я я несколько дисков мультами Диснея (и не только) и сравнил то, как выглядит одна сцена на стареньком и дешевеньком тедевизоре lg(Элт) и то, как она же выглядит на ips. Разница видна даже по композиту. Я и не помню когда я последний раз видел такие насыщенные оттенки синего, зелёного и красного цвета. И это я ещё сбалансированный режим поставил. Все на 50 процентов. Так что разница есть. И вы ее увидите. Единственная технология которая может конкурировать с элт в плане цвета это oled. Да глубина цвета там 12бит максимум. Но зато с контрастностью у Oled дела в несколько раз лучше. Если я правильно помню то у элт это 15000:1 а у олед 100000:1. Олед технология из 12 бит выжимает все соки.
Пересмотрел, инфо файлы всех своих демо роликов в HDR и DV, так же кучу инфо файлов с 4К фильмов. Везде субдискретизация 4:2:0 Даже не знаю, существуют ли файлы с 4:4:4 или хотя бы 4:2:2 ...
13:56 - картинка на 8 и 10 бит с закатным солнцем, это не ложь. У меня ка то плагин переключил битность переброса 14 битного изображения из Лайтрума с 10 бит на 8 бит и вот такое получалось после обратного возвращения изображения из плагина в Лайтрум и вывод конечного результата из Лайтрум в 8 бит. Как только заметил и вернул на промежуточную конвертацию 10 бит, то этот эффект пастеризации исчез. Реально в 8 битах пропадает информация и это очень видно на посте/коррекции. Если изначально снимать в 8 бит, сцену уложить в диапазон и более ничего не трогать, то и на 8 битах не будет таких разводов, будут плавные переходы. Потеря информации никуда не денется, но вы не будете об этом знать. Картинка примера не является ложью, но больше относится к постпродакшену.
«Вот смотрите, если всё сделать хорошо, то разницы нет». Дичь какая… Что значит «сделать хорошо? Залить всё ровным светом, снять не пойми на что и на получившейся плоской картинке что то там анализировать через RU-vid?
3:20 Лолшто? Третий канал -- совокупность двух первых? Серьёзно? YCbCr -- это семейство цветовых пространств, в котором Y -- компонента яркости (а не свет), Cb -- синяя цветоразностная компонента, а Cr -- красная цветоразностная компонента. А не смесь синей и цвета. Ну и в целом, 4:2:2 -- это не 10 бит. Это 8 бит + FRC
если не сравнивать в лоб, один хрен зрение и мозг адаптируются и дофантазируют. тем более это видео, а не фото, никто не будет рассматривать/докапываться до отдельного кадра
Вы говорите, что никаких лесенок нет. Но вот я вижу их там, где присутствует градиент (клип Баста - Сансара). Это отвратительно выглядит. Все улучшайзеры отключены (с ними картина такая же). Через PS4 такая же проблема. Режим изображения ИГРА. Что я делаю не так? Почему я вижу эту лесенку? Увидел я её ещё в далеком 2017г. когда про 8bit и 10bit ничего и слышно не было. Samsung UE49KU6400.
Так это дело в контенте , я сам эти лесенки вижу на 10 битном тв, как я уже сказал , тут в первую очередь важен контент, если ее удали или искусственно подняли тени , то вы начинаете видеть то чего нет в тенях , вот и результат , это я про то что если бы сняли видео изначально в 10 бит, потом осветляли тени, то проблем должно было быть меньше
Благодарю за обзор,но для меня нужны были последние 5 минут(где всё по полочкам), хотя в принципе знал, что 10 бит и 100 герц на хрен не нужны, добавлю только что человеческий глаз не различает между миллионом оттенков цвета-8бит,и миллиардом оттенков цвета-10бит! Вывод - просто хотят срубить побольше деньжат с народа!
))) у тебя просто 10 бит не было никогда поэтому так и пишешь ...сравнивал дома 8 бит, 8 бит+frc и 10 бит - между первым и вторым разница действительно практически незаметная но вот 10 бит решают.. только слепой не заметит разницу да и герцовка не критически но тоже добавляет качества
@@ЛихойЗверобой так може справа була не у бітах, а якості продукту, краща підсвітка, люмінофор і так далі... Які моделі телевізорів ви порівнювали, що зупинились на 10 бітах?
Здравствуйте, может вы подскажите. В итоге всё равно непонятно, что лучше RGB 8бит 4-4-4 или YCbCr 10 бит 4-2-0? И почему? Везде спрашиваю, никто не знает, зато все умничают про различные субдискретизации. =) RGB 8 bit это ведь 16млн оттенков, а YCbCr 10 бит 4-2-0 это 267,5млн оттенков. Памагите понять!
Личные наблюдения: Полный rgb лучше, более чёткое изображение, более чёрный цвет. 8 и 10 бит - разницы не увидел. HDR - отстой, картинка осветляется и обесцвечивается. Как бы более мутной становится.
а теперь главный вопрос???как увидеть или понять или проверить??? в матрице 4 4 4 он или 4 2 2 ???по каким параметрам???а девочку так и не показал на другом телевизоре()))
Разница конечно же есть, для того что бы ее увидеть нужно иметь хороший дорогой телевизор. А то что вы показываете на видео чтобы мы увидели отличия - это честно говоря забавно, по простой причине - у большинства телевизор(монитор) 8 битные.. там не будет никакой разницы, Второе - нужно учитывать еще тот факт что ютуб тоже эту разницу убьет, так как он сильно пережимает видео, на ютубе есть специальный режим для 10 бит - называется HDR.. у вас же было все снято в минимальном качестве
Привет, у меня тв 10бит и разницы нет , прям совсем, hdr и 10бит прям не совсем одно и тоже , я раскрыл тему , тут можно согласиться или нет но это факт и математика , если вы найдете контент в 10бит без компрессии то вы правы , но еще раз нет в свободном доступе 10 бит 4.4.4 , если только вы купите камеру и сами будете снимать хоум видео , hdr. Это вообще другая тема .
Подскажите неучу, а то я так и не понял что для меня лучше: есть монитор 165Гц. В драйвере видеокарты есть 4 варианта вывода картинки, 3 варианта - это 4:4:4 всяческие RGB, и 1 вариант это 4:2:2. При установке 165гц глубина цвета на вариантах 4:4:4 - 8 бит, а в варианте 4:2:2 - 10 бит. Если частоту снижать до 120Гц и ниже, то и 4:4:4 тоже переходят в 10 бит. Вопрос - что лучше для 165Гц, 4:4:4 8 бит, или 4:2:2 10 бит?
Я так понимаю вы монитор подключили через HDMI, через него пропускная способность слабая, купите display port и будет вам счастье. И 10 бит и 165 герц.
Так, не не не. Это уже не просто совпадение. ~10 лет назад ты дал мне первую аргументированную инфу о ТВ и фотоаппаратах, а теперь задавшись вопросом битности в ТВ я уже на третьем ролике попадаю на тебя? Это блин судьба) сфера техноблогинга идеально тебе подходит!
Вы как то оторванно от реальности рассказали. Постоянно при просмотре на ютубе каких-нибудь тревел блогов вижу как голубое небо сиюостоит из гигантских кубов с разными оттенками синего. Это отвратительно. И так было всегда.
еще раз повторю, я видео указал 3 направления для 10 бит, так вот, тут проблема не в воспроизведении , а скорее в создании контента, кто будет собой брать red или хотя бы gh5/А7R3?? а эти пукалки виде экшн камер или телефона, который имеет матрицу меньше ногтя , не могут обеспечит достойный битрейт в видео, тут проблема абсолютно в другом , вот для этого я и снял этот ролик, для объяснения, того что многие люди в одну кашу все скидывают, а проблема не в том
@@igor5254 906 или 916? что дешевле, основные функции одинаковые , а вот 866 отличается боковой подсветкой, это будет видно в темноте, а вот днем или в ярких сценах вы даже не поймете
@@pro4223 Спасибо. Вообще не могу чет решить что брать. Сходил в магаз, 55" маловат, 65 как то тоже, 70 и 75" есть по нормальной цене, но все с обновлением 50гц, без hdmi 2.1, и без всякий плюшек типа vrr, allm. Вот arc почти везде суют)
Вы не правы по поводу битности. И это видео больше про субдескритизацию. Давайте объясню по поводу этих картинок со ступенями цветов: многие из-за не грамотности вводят в заблуждение что это сравнение матриц 10 против 8 бит. Но это не так! Эти изображения показывают разницу в ОТОБРАЖЕНИИ контента на телевизоре с 10-битной матрицей. И хороший тому пример это стандартное видео 1080p 8бит, когда Вы запускаете его на 4К 10 бит телевизоре, то по мимо того что матрице не хватает цветов для отображения, то апскей (увеличение) 1080p изображения до 4К удваивает недостаток цветов и плавный градиент превращается в лесенку цветов. По этому многие производители чтобы не заморачиваться с процессорным подавлением градации цветов, теперь ставят матрицы 8-бит +FRC, и этот FRC только включается для 10 битного контента. Тем самым убивая двух зайцев сразу, это качество изображения для разнобитного контента и цена матрицы.
Ну и чтобы не быть голословным, самая проблема 8 бит это конечно тёмные цвета у них огромный провал в информации, посмотри это видео на 4К телевизоре 10 бит с выключенной функции подавления градации ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-rRGJh9YuJuo.html присмотрись на градацию тёмного фона, у меня на Sony XH95 всё в лесенках, хорошо что в ТВ хороший процессор и он это всё исправляет. ;)
@@grangex вы меня простите но как это противоречить всему тому что я сказал и показал? ну и видео должно быть изначально снято в 10бит 4.2.2 , но вся магия в том что после монтажного стола все режут не нужную информацию для адекватного битрейта, лично я 100 ловил бандинг на 10бит тв , так что я не очень понимаю вас
@@pro4223 видео полезное, правильное и Вы понятно и просто для понимания рассказываете про сжатие видео. Но говорить что 10 бит это маркетинг - не правильно и приведённые примеры тоже не правильные. Всё зависит на каком экране Вы смотрите контент в 8 бит! Если на 4К 10 бит экране Вы будите смотреть видео 1080р в 8 бит даже с 4.4.4 в апскейле, то будет виден цветовой бандинг, особенно в тенях и тёмных градациях. Если запустите этоже видео на ТВ с матрицей в 8 бит то всё будет хорошо. Так что эти изображения разности бит с цветовым бандингом не показывают разницу матриц, а показывают разницу контента на экранах в 10 бит. Тому доказательство что до появления 10 битных экранов, никто и не видел этого цветового бандинга ведь везде были 8 бит ТВ и 8 бит контент. Но как только производители начали выпускать ТВ с 10 битными экранами и особенно OLED, но контент продолжали смотреть в 8 бит и тут как раз все увидели цветовой бандинг и начали говорить про это, а производители стали внедрять функции плавной градации чтобы это поправить. Надеюсь теперь понятней объяснил ;)
@@pro4223 по поводу HDR тут чтобы увидеть разницу с SDR нужно его смотреть и знать куда именно и на что ;) Самое простое объяснение HDR это как прослушивание HiRes lossless музыки, её тоже более 90% людей не могут отличить от стандартного качества. Я лично тоже не сильно вижу разницу HDR с SDR, единственное что сразу бросается в глаза это яркость объектов в HDR, тут она колоссальная.
@@grangex вот тут я с вами и согласен и нет)) дело не в том для чего hdr ! а в том зачем это бюджетникам и среднему классу?? там банально нет аппаратной поддержки в виде 1000нит и более
насовсем, это когда жигули продали под названием ауди , и мол ауди лучше, 10 бит это всего лишь обозначение, а вот что скрывается под этим надо разобраться, я не пытаюсь переубедить, но и гнаться смысла не вижу, все что я сказал это открытая информация)) ну и еще я делаю сравнение , вот скажем 4к hdr 10бит в частую проигрывает 1080р , так как мало подвести сигнал , еще тв нужен на уровне
Спасибо. Скажите, имеет ли смысл рендерить отцветокоренный 10-битный исходник в 10-битный же ролик, для ютуба, или достаточно для итогового видео 8 бит? Исходник 4К 60 к/с 4:2:0
10 бит это уже поле hdr. Если игра с поддержкой HDR, и записана в HDR, то наверное имеет смысл, так как Ютьюб умеет воспроизводить HDR. Если же игра без HDR, то и смысла рендерить в 10 бит нет. Ну и опять же вопрос чем вы записываете, способно ли ваша программа записи записать эти самые 10 бит.
как телек выбрать. раньше были ящики японские и качество было лучше 100гц. теперь ЖК качество хуже мерцает экран . картинка застревает при движении. вопрос. ? на какие характеристики смотреть кроме процессора потому что процессор вообще не пишут. что бы на современых жк картинка была не хуже чем на старых японский ящиках сони и панасоник???