Когда мне было 20 лет, я прочитал, что, что бы стать хорошим звукорежиссером нужно лет 10 учиться. Тогда это казалось смешным, ведь максимум на это можно было выделить пару лет. С тех пор прошло 20 лет и я до сих пор учусь. Но люди на концертах подходят и говорят, что такого классного звука еще не слышали. Все ньансы из которых складывается результат приходят только с опытом, но начинать делать надо сейчас. Самый лучший совет: найдите хорошего специалиста, который поделится с вами опытом. Если вы отец, найдите своим детям специалистов-практиков. Все годы в учебных заведениях не сравнятся с месяцем проведенным рядом с практикующим специалистом
Звукорежиссёр - это профессия, которой учатся несколько лет, а потом всю жизнь, с учетом опыта и ошибок, повышают свою квалификацию и уровень. Но мало, кто сегодня хочет учится, зачем? Многие, посмотрев несколько роликов на Ютюб, считаю этого достаточно и начинают лепить свои "шедевры" 😀 Нет, ребята, без труда, не выловишь рыбку(тем более большую) из пруда. Прежде, чем лезть на Ютюб и смотреть "великих " звукорежиссёров(хотя тут есть очень грамотные звукорежиссёры), начните с теории по звуку. Поймите, для начала, что такое вообще звук, его физику. Всем удачи 😀
Как и в любом деле можно так сказать переучиться. Выливается это часто в то, что человек нарабатывает шаблоны и по ним работает. Именно от профессионалов можно услышать и те же мифы и откровенно сомнительные принципы. А можно заниматься творческими поисками и найти что-то интересное. Многие открытия в звукозаписи были сделаны вопреки, а не благодаря канонам. Лепить свои шедевры можно начинать хоть когда. Иначе в чем смысл? Изучил теорию-попробовал. Еще что-то изучил-попробовал. В общем вы сами сейчас распространяете расхожий миф, что вот ты выучись, а потом будешь танцором, музыкантом, звукорежиссером, художником итп. Все это делается одновременно. Изучаешь что-то, но при этом практикуешься.
@@AcidFloriani Познание, это длинная череда дверей открывая которые вы оказываетесь перед следующими, дорога эта бесконечна, но не бесконечно ваше время ,а именно это и определяет отрезок вашего пути.Кто то останавливается, кто то идет дальше. Вы меняете дорогу, дорога меняет вас. Ответ на вопрос - «Нахрена мне это?!» Дело очень личное))
@@Петрович-л5к нахрена это надо потребителю-вот в чем вопрос. Звукорежы могут часами спорить какой монитор лучше и не красит звук. Заказчик просто смотрит на результат и слушает в лучшем случае на мультимедийке. Кто там отличит на чем ты сводил и какая у тебя карта. Покажи человеку красоту. А красота зависит от совсем иных факторов. Некоторые вон делают офигенный саунд дома на коленке. Можно например послушать не сильно известные группы без бюджета. Такие все время что-то изобретают по ходу записи.
Те же мысли у меня возникли сразу, когда решил заняться созданием песенок. Послушал несколько советов по звукорежиссуре, принял для себя базовые вещи, остальное на слух. Сейчас бум на создание музыки. Композиторов появилось очень много. На канале одного музыкального коуча послушал работы учеников - чуть кровь из ушей не пошла. Я считаю, что в создании музыки важно наличие образования и чувство вкуса. Остальное вторично, хотя важно, но вторично.
Немного об участии мозга в звуковосприятии - два примера из личного опыта: Довелось мне ночевать в комнате с часами-ходиками - они очень громко (для ночной тишины) и отчетливо тикали, я довольно долго не мог заснуть, и начал "усилием мысли" менять тональность тикания - и сыграл некое подобие "Чижика-Пыжика"! Пример второй: У меня два монитора (дисплея :) ), а над ними висят полочники (стереопара) - подключенные к ПК. Так вот - когда я смотрю фильм, или ролик на Ютубе, в которых кто-либо говорит - то звук идет из того монитора, в котором отображается говорящий. Т.е. мозг переносит звук туда, откуда он ДОЛЖЕН идти. Вот вам и вся аудиофилия, как она есть - если очень хотите что-то услышать (межблочник за 10 000$, или деревянные подставки под кабель), мозг пойдет вам навстречу.
Про первый миф прям порадовали. ШитКонтроль (проверка на дешёвых деаайсах) должен занимать половину времени. Иначе пользователи простых тарахтушек так и не услышат авторской задумки...
Думаю, насчёт 192/24 не сказано самого главного: эта частота нужна не для сохранения проекта (экспортируется он в 44,1/16), а для работы со звуком. А точнее, если у вас проект, например, на 44,1 КГц, вы кидаете на дорожку сатуратор или другой плагин, который порождает гармоники с частотой выше частоты Найквиста-Котельникова (>22,5КГц в данном случае) и они из-за неправильного просчёта шумами лезут в слышимую область. Так что в этом случае надо либо пользоваться оверсемплингом или (при отсутствии такового) брать повышенную частоту дискретизации - 96 или 192, чтобы этих шумов не возникало.
Здравствуйте , Александр! Как всегда - отлично! Одна просьба... Отдельное видео посвятить терминологии! )))))) После этого ролика - "википедь" трещит по швам!!! 🙃🙃🙃
Я самоучка. Но всегда был убежден (самим собой), что сведение нужно делать с колонками. Да, мониторов у меня нет. Но выставив тембры акустики в 50%, можно добиться неплохого результата. Тогда и есть чем покрутить для особо пытливый, добиваясь тех или иных частот. А в наушниках всегда будет классно.
Блестящая аналитика и подача материала, Александр! С годами пришел к выводу, что четких стандартов звукозаписи не существует. Компьютеры в быту стали мощнее, а для желающих выдать баги за фичи сегодня есть такие направления как lo-fi и шугейз, чем с удовольствием пользуюсь. Спасибо за видео!
Одна из проблем сведений в наушниках это невозможность контролировать моносовместимость трека. Ну никак физику не отменить! Если раньше в эпоху аналогового оборудования этой проблемы моносовместимости не было можно сказать, то в эпоху цифровых плагинов эта стала большой проблемой. И вот сколько мы не проверяли людей, которые говорили вот мы свели в наушниках проверьте... и как только дело подходила к тесту на моносовместимость, то в вдруг в моно трек тускнел (происходили фазовые вычитания). Я считаю, что если нет в треке совместимости в моно, то это брак! Тест очень прост на моносовместимость (лучшего способа не знаю): Одно ухо затыкаешь пальцем, а другим ухом открытым отворачиваешься от мониторов и на мастер канале не глядя включаешь кнопку моно и стерео (у меня Рипер) и если я не слышу разницы в звуке, то это идеальная моносовместимость!
А я не хочу, чтобы мою музыку задуманную исключительно как стерео слушали в обрезанном моно, когда теряется куча всего - поэтому принципиально за моносовместимостью не следил! Те кто относятся так небрежно, что слушают через один динамик - гуляют Вася!
@@Даниил-к7п2и Если вы сами пишите музыку, то вы как автор можете ориентировать свою музыку на кого хотите - это право каждого автора. Но если я как инженер по микшированию буду клиентам предлагать сведённую музыку ориентированную только на прослушивание их музыки в наушниках, то так ничего не заработаешь! А чтобы свести нормально микс, чтобы прослушивалось на разных источниках прослушивания, то сведение только в одних наушниках недостаточно!
Согласен, что мифы 1, 2 и 3 - это действительно мифы, но по поводу 4, про наушники... Вот объясните мне, пожалуйста, я вас очень прошу, ну я искренне не понимаю... Если подавляющее большинство людей слушают музыку в наушниках, разве не лучше будет делать сведение и мастеринг тоже в наушниках? У слушателей ведь левый канал изолирован от правого, а у нас, во время сведения, звук с левого монитора будет попадать в правый, и наоборот. Разве у слушателя в таком случае будет правильный стереообраз? Это был первый момент. Второй - чтоб выжать из мониторов хороший звук, нужны сами мониторы, за немалые деньги, помещение нужно подготовленное, что тоже в копеечку обойдется, особенно если мониторы среднего, и тем более дальнего поля, и осооообенно если они могут в глубокий басс (говоря "глубокий басс" я подразумеваю частоты в диапазоне примерно 20-40 Гц, что ниже 20 Гц это уже отдельная тема). В то время как наушники к помещению никак не требовательны вообще, дай им цапоусилитель нормальный, и будут хорошо играть, опять же, если наушники хорошие, разумеется, речь не идет о дешмане, наушники тоже могут быть дорогими (и наушниковая система цапоусь+наушники будут звучать лучше, чем вся система мониторов, при равной цене), и играть дорого, и, !чесно, мониторно! Вот вы говорили об оправданности - разве оправдано тратить уйму денег на мониторы и все к ним прилегающее, когда можно потратить кратно меньше на наушники того же уровня, которые в добавок будут еще и играть в таком же как у слушателя формате (левый канал изолирован от правого), чтобы для них строить правильный стереообраз, соответствующий их типу акустики? А еще у наушников меньше гармонические искажения, ачх ровнее, лучше детализация и тд и тп. Александр... ну я реально не понимаю... было бы здорово, если бы вы объяснили, как так то вообще...
Как там говорил один известный звукореж-после удешевления компьютеров,и появления термина "запись и мастеринг в домашней студии на РС" в индустрии появилось много случайных людей Как правило сильно далеких от понимания своих действий В итоге имеем битмейкеров вместо композиторов,и кнопкодавов вместо звукорежей...
Респект!. Хоть один в России на 50℅ рассказал, что такое частота дискретизации. """Главное""" не путайте: Дискретизация-обработка цифрового сигнала, в звуковой карте и Дискретизация-обработка цифрового сигнала, при записи на внешний диск ""CD"". Разговор о внешней звуковой карте. Дискретизация-обработка цифрового сигнала, во внешней звуковой карте, чем выше частота дискретизации (деления синусоиды) в единице амплитуды, тем качественней обработка и меньше искажений, точнее и качественней звук источника. Хотелось напомнить, что18 -20 Кгц слышит не каждый человек, а от 20 до 192 Кгц не слышит никто. Поэтому с наводками искажениями и другими помехами борется дискретизация. Первоначально аналоговый сигнал преобразуется в цифровой АЦП, цифровой сигнал обрабатывается процессором дискретизации внешней звуковой карты, после обработки, цифровой сигнал преобразуется в аналоговый сигнал ЦАП и идёт на выход звуковой карты. Если коротко, процессор дискретизации внешней звуковой карты берёт от ПК на себя всю обработку цифрового сигнала, если искажения располагаются выше синусоиды сигнала, процессор удаляет их, если сигнал источника ниже синусоиды, то добавляет его до границы синусоиды, компенсируя недостаток уровня сигнала, после преобразования в аналоговый сигнал ЦАП звук источника становится чище, значительно уменьшаются искажения, при этом на загруженность работы процессора компьютера практически не влияет. Единственно хотелось добавить, процессор дискретизации вычисляет несущую частоту, прямоугольные импульсы дискретизации делят синусоиду и верхняя часть прямоугольного сигнала, который делит синусоиду на части, на кривой синусоиды импульсы образуют точки пересечения, они обозначают точную частоту сигнала, чем чаще импульсы деления, тем точнее обработка. Сигнал выше или ниже синусоиды, это и есть помехи (искажения). Для того чтобы исправить искаженный сигнал, процессор дискретизации внешней звуковой карты добавляет или удаляет искажения по контуру синусоиды и по точкам на синусоиде строит исправленный сигнал. Чем выше частота деления (дискретизация) синусоиды, тем качественней обработка, в результате меньше искажений, точнее и качественней исправляется звук. На нагрузку процессора компьютера влияет дополнительное программное обеспечение, прилагаемое к внешней звуковой карте, которое устанавливается на компьютер, например разные звуковые эффекты такие как эхо, пин-понг, фленжер, разные искажения, управление каналами и прочее. Хотите разгрузить процессор ПК переводите обработку разных эффектов на железяки т.е. на внешние педали, музыкальные процессоры и различные обрабатывающие устройства. Другое дело если вы используете внутреннюю звуковую карту или секвенсор (DAW) типа Cubase, FL Studio или др....., которые так же используют внутреннюю звуковую карту разного рода драйвера, плагины, виртуальные инструменты и пр......, и на все это необходимо иметь мощный процессор ПК. В зависимости от объёма музыкального произведения, сводить звук и писать аранжировки, использовать большое количество виртуальных инструментов..... необходимы обрабатываемые мощности ПК. И конечно в таком случае нагрузка на центральный процессор компьютера(ПК) будет огромен, вы спросите, как с этим бороться, конечно увеличивать мощность процессора ПК, использовать мощный центральный процессор ПК, быструю и большую оперативную память (ОП) 48 Гб и выше, твердотельные накопители SSD (solid-state drive) и NVMe (Non-Volatile Memory Express), а так же быструю общую шину ПК и быстрые USB устройства. Конечно это всё скажется на стоимости персонального компьютера и программного обеспечения. Их стоимость прямо пропорциональна той работе которую вы планируете производить на ПК.И конечно придётся бороться со стоимостью Персонального компьютера и программного обеспечения. Да я забыл упомянуть о стоимости по защите эл. питания и интернет сети. Если вы ограничены в финансах, то используйте DAW, которые меньше потребляют ресурсов ПК. Если говорить о обработке сигнала внешними устройствами, то в интернете много роликов знаменитых инструменталистов которые используют ограниченное количество педалей и разных обрабатывающих устройств, но хорошего качества, имеют умеренную цену, берите пример от наших кумиров при этом качество их игры и звуков находится на высочайшем уровне. "ЭКОНОМЬТЕ СВОИ СРЕДСТВА". Хороший и мощный компьютер дол жен быть у аранжировщика, звукорежиссёра, специалиста который сводит треки. Как то так. Спасибо. С уважением Виктор.
Я не знаю вашего образования, но если вы что то закончили, то из вас получился хреновый специалист. Очень много школьников приходят поступать в институты и после проведения подтверждения знаний хоть плачь. Это всё соровская и болонская система обучения. Сегодня мы пожинаем результаты этого воздействия.@@eugeniy_nibumbum
Вот оно зерно истины! этот выпуск - просто роса на горячие головы звукачей! по сути все эти споры можно свести к фразе "а король-то голый!". обычный меломан даже не поймет разницы между замороченым миксом и сведенкой из телефона. Александр сделал самый главный вывод: imagine Ленонна, не пойми где и как записанный, звучит на планете каждую минуту, а о 99% накаченных миксов никто никогда не узнает
Ну, это просто потому, что “Imagine” Леннона записан не вот прямо «не пойми где и как», а на собственной студии Леннона/Йоко Оно, Ascot Sound Studios, которую они сделали в только что купленном поместье 18-го века. И для которой, студии, они купили собственный 16-канальный микшер и 8-дорожечный катушечный студийный магнитофон-рекордер - просто чтобы на каждый чих не ездить на студию в Abbey Roads. А доведена до ума песня была в студии Record Plant,... - в Нью-Йорке. В студии, где до этого писали Джимми Хендрикса, а после этого - Элиса Купера, Аэросмит, Эрика Клэптона, Ганс-н-Роузес, КИСС да и кого только не. Ну то есть, песню делали аж на двух разных континентах, в серьёзных специально построенных студиях. Не надо недооценивать продакшн старых треков только потому, что они старые :)
спасибо за экскурс. и тем не менее, качество этой песни звукорежиссёру чести не сделало. качество отвратное. только если леннон уперся рогом и не захотел переписать нормально в нормальных условиях. но шедеврлальность самой песни этот косяк перекрыло с лихвой
мне 25 , с удовольствием слушаю вашу наработанную мудрость. Звучите убедительно - верю вам! Здоровья вам ,вашей группе, что бы побольше полезностей мне услышать и увидеть 😁
Александр, спасибо за видео. Вот почему-то все начинают рассуждения про звукорежиссуру с обустройства комнат, аппаратной части, програмного обеспечения, качества преподования и т. д. и т. п. А вот вааще никто-вааще!!! Не начинает с себя, со своей психической вменяемости, далее, на сколько у него все в порядке со слухом и проверялся ли он для этого у врача, наступила ли ему Панда на уши, на сколько он художник чтобы красиво сводить, и вообще есть ли у него хотя бы музыкальное образование, хотя бы на уровне муз школы Согласен про гуру, это вообще п... да
Миф #5. Напихать на каждую дорожку трека по несколько компрессоров, сатураторов, транзиент-шейперов и.т.д., как советуют все покупные "обучающие" курсы от "профессионалов", обильно накачать всю эту аудио-кашу ревером и дилэем, на мастер-шину влепить ещё пару-тройку мультибэндов, максимайзеров и лимитеров, заполировать стереорасширителем и потом удивляться в итоге катастрофически поганому звучанию😆
Я не заморачивался над частотой дискритизации, тупо лень, да и 5 тис евро на ПК зарабатывать тоже сомнительное вложение без гарантий что будет выгриш, свожу треки и мастерю рендерю на 48 и всё норм, а лимитирую на -10 LUFS, и не боюсь что какой-то сервис испортит либо передавит трек))
6:52 - это отчасти правда, но не совсем) Я например слушаю музыку через R2R цап Holo May 2 и акустика Wharfedale Aura 2, и вот там можно очень много всего услышать, столько нюансов и волшебства Реально хочется слушать и слушать, не прекращая) и поверьте, чем выше качество вашего тракта, чем больше вы сможете услышать, и тем приятнее будет звучание А насчёт всего остального я полностью согласен, спасибо за видео 😉
@@sergeyklimenkov у меня компетенции не хватит повторить, но как я понял множественные трансформации фильтрами внутри проекта понижают дискретизацию, это как в видео если 8bit и без особой обработки экспортировал, то и ништяк, а если в люметри мощная коррекция по цветам, тот выползают лютые артефакты, на границах соседних цветов, которые при съёмке 10bit не видны, поскольку градации мельче. Ну по крайней мере я так понял, лень искать источник.
Для современной музыки от -8 до -6 LUFS (тяжёлый рок, попса, танцевальные треки), true peak обычно делают -0,4 при конвертации из wav в формата в mp3 значения true peak увеличиваются и если скачивать песню с того же RU-vid пики будут выходить за 0dBTP у большинства композиций, поэтому такое измерение не является корректным.
Про дискретизацию вы самое главное не сказали, тут дело в качестве обработки - синтеза, та же реверберация звучит лучше на 96 чем на 44100, о эквализации и сатурации я уже не говорю (но 192 это перебор конечно) .. А потом жмите в формат который нужен, главное что внутри (в слышимом диапазоне ) все качественно. В целом все по делу говорите, смотреть интересно ) спасибо
Если выключить автоматическое уравнивание уровня громоксти на спотифае, то большинство современных едм треков будут звучать от -3 до -6 люфс в хэви басс жанрах, попса от -6 до -9, и у нас в индустрии это стандарт. Плюс, громкость мастера трека влияет не только на громкость, но и на плотность и динамику микса, вам ли не знать? Естественно если трек плохо сведен, то и никаких 5 люфсов вы не выжмете без потери качества и слышимых искажений и треска, потери динамики.
Спасибо за обзор! А я, кстати, на самом деле тоже вполне согласен по всем пунктам. Даже без исключений.) Но вполне представляю себе, как сейчас будет битва по поводу частоты дискретизации. И даже некоторые профессионалы вдруг скажут, что нет), вы не понимаете, это вывод на 44100, а в проекте - совсем другое дело.) Вот послушаете на сколько чище и точнее.)) Я, кстати, так совсем недавно слушал в обзоре одного очень известного звукорежиссера. Уже сдерживая смех - не поленился, пошел в соседнюю комнату послушать на мониторах его пример проекта на 44 и на 96. Ну)... как бы это сказать.) Разница видимо какая то есть, так вот если прям очень вдумчиво слушать, собирая волю в кулак)). Но как бы...) Ловля блох. Ну в теории то да, оно должно быть вроде как чище и лучше. Но на практике, меня вполне устраивают пока и искажения, и "худшее" звучание, более чем.)) Недавно осознал, что за свою жизнь сменил примерно 5 звуковых карт с 96 и 192... И начал вспоминать когда я на самом деле использовал хотя бы 96.) В общем, понял что мне точно 44100 (и 48 для видео) хватает выше крыши. Но, кого есть возможность покупать прям супер-компы за астрономические деньги - я не против. Пишите сессии в 96.) И я даже не спрашиваю на сколько грамотно вы потом будете это ресемплировать в 44100, с какими потерями.) Ну понятно что можно это делать вживую второй дорогой звуковой картой, например. Или методом очень точного и долгого ресемплинга.) Может быть - может быть)).
Вопрос вовсе не в том, что «ты не будешь слушать итоговый проект в 96 kHz, а всего лишь в 44100 Hz». И даже не всегда в том, что 96 kHz дадут твоим плагинам более чистую обработку, а любые шумы и искажения не пролезут прямо в звуковой диапазон. Вопрос во многом как раз в передискретизации. Потому что передискретизировать 48000 Hz в 44100 - это жесть и кошмар, даже со всякими dithering-ами. Эти частоты слишком близки друг к другу, 1. не делятся друг на друга поровну, 2. не делятся друг на друга с достаточным запасом. А вот 88200 в 44100 - было бы намного качественнее. 96k - ещё качественнее, ещё выше запас на ошибки дискретизации (этакий «информационный headroom», хехе), 192k - тем более. Представьте, что вы смотрите фотки на старом добром мониторе Samsung Syncmaster с его жирными квадратными пикселями и разрешением 1024×768 (ну или на каком-нибудь другом, хоть ЖК-мониторе, но вот с таким разрешением, для простоты). Это вы, условно говоря, слушаете «звук на современной массовой аудиоаппаратуре». Представьте, что вы берёте фотку 1024×768 и смотрите её на этом мониторе. Одному пикселю фотки соответствует 1 пиксель экрана. Всё идеально, всё один к одному. Это вы «слушаете микс 44100 Hz на аппаратуре/стриминге 44100 Hz». Представьте, что вы сделали в проекте базовую частоту дискретизации 88200 Hz. А слушать вы её будете по-прежнему на 44100 Hz. Это примерно то же самое, как если бы вы смотрели фоточку 2048×1536 на этом своём мониторе - она будет выглядеть очень даже неплохо, потому что каждому физическому пикселю экрана соответствует 2 логических пикселя картинки в ширину и 2 в высоту. А каждому физическому сэмплу звука будет соответствовать два сэмпла данных. .... а вот если вы вдруг сделали базовую частоту микса 48000, а проигрывать/баунсить будете в 44100 - это как раз ситуация, когда у передискретизации будут проблемы. И наоборот - базовую частоту сделали 44100, а баунсите/редискретизируете в 48000. Это ровно как смотреть картинку 1280×960 на мониторе 1024×768 - или наоборот, смотреть картинку 1024×768 на мониторе 1280×960. Ну или ресайзить одно в другое соответственно. Кто-то мог бы сказать, что «я всё с начала и до конца сделаю в 44100, и оно покроет большинство нужд и платформ», но... если вы точно уверены, что ваша музыка никогда не попадёт, например, в видео с 48 kHz-звуком, то, ну, удачи вам.
@@amyodov Теоретически согласен со всеми абзацами, кроме двух последних. Теоретически, потому что меня, и главное, моих клиентов последние 30 лет)), более чем устраивает многоканальное сведение в проектах на 44100. понятно, что есть большое желание сравнить это все с фотошопами, где один пиксель к 2 пикселям и т.д., но на слуховой практике это все работает несколько иначе и качество может зависит в гораздо большей степени от конкретных внутренних алгоритмов работы каждого daw, про которые ни одна фирма с нами не поделится.) Не поделится потому, что конечно там химия на химии)). В теории, без потерь качества, на современном компьютере можно сложить без потерь ну канала 4, от силы 8 (моно). А что бы сложить больше), на нужно конечно больше)), каждый движок современных DAW конечно же (по любому) что то там вычитает, пережимает, химичит, колдует и калядует.))) Просто пользователю это знать не обязательно, а то чистоплюи сойдут с ума или лягут в камеру глубокого анабиоза лет на 150)), что бы дождаться когда наконец появятся нормальные DAW, работающие с компами с тактовой частотой 500 ГГц)), 500 Гб оперативки))) и 1024 битным звуком)). Примерно как то так). Это и есть ответ на вопрос, почему же с закрытыми глазами мы пока не ощущаем сильной разницы между сессией на 44100 и на 96000. Ну она там может какая и есть, но пока что - с комариный хер.)) Вот только не будем про то что там Лоджик он типа честно складывает или Протулз, а Кубейс не честно, поэтому и микс как через подушку.)) А кто то скажет, что у куба низы за то какие ух!) Мы не могли ждать еще 70 лет, что бы все было по-честному). Поэтому обманываться рады. Вот вам на мобиле написали, что она снимает честные 4к), вот и надо в это верить, как в силу гомеопатии.) А в реальности, ну конечно пока невозможно честно сложить хотя бы 20 каналов звука, даже 44100 на 24 бита. DAW - это программа, которая с помощью обмана пытается впихнуть невпихуемое), уж не говоря про веер плагинов сверЬху!)) Кто застал СССР - помнит мультик про 7 шапок из одной овчинки.) Не надо пока об этом задумываться, что бы спать спокойно и ночью кошмары не мучали.) Мы пока вынуждены так жить и иных способов все равно пока нет (ближайшие лет 50 точно), на данном технологическом этапе. Да, разумеется, когда все будет по честному - мы наверняка почувствуем разницу между проектом на 44100 и на 96. Но пока это на столько не самое главное в качестве.) Но какая то она наверняка есть и сейчас, немношко.) Кому позволяют средства - купите комп за космические деньги и пишите проекты в 96, ну или там по науке в 88200). Будет ли на слух ощущаться вдвое качественнее - нет), не будет.) Но лет через 80 - наверняка будет! Выйдет Лоджик Про 59 версии, алгоритмы микса чуть менее дерзко будут сжимать внутри движка каналы и ваши седые внуки ощутят разницу.)) А пока мы в далееееком начале 21 века. И что нам теперь, не жить что ли?) Ну как можем, так и миксуем.) Так по поводу последнего обзаца. Ну все предельно просто. Приоритет - это 44100, как промышленный стандарт последних 30 лет. Главное, что бы вся цепочка до конца была целостной. Если проект попадет на видео, где 48000 - ну это проблемы видео)). А что случилось? Ой,,, неприятный такой ресемплинг будет, не кратный, не по фен-шую?) Ну а как работает телевидение последние 30 лет?) Да какой 30, уж все 50)). Да просто - глубочайше насрать))). Ну видео, какой с него спрос? Все привыкли, что на видео не до тонкостей.) Музредактор спокойно идет, берет (в лучшем случае) СД диск, не задумываесь отдает монтажеру, монтажник не задумываясь ни о чем ставит эти 44100 в проект на 48 и оба счастливые идут в столовую на обед.) Все! К эфиру готово!)) Если вы этих двоих остановите на останкинской лестнице и спросите про ресемплинг, ну... они подумают какой то фрик из психушки убег.) Вот там все заморочаться проблемой, что было 44100, а стало 48.)) Пффф))) Да накачал каких то мр3-шек и пофиг. CDA - это уже для совсем старых эстетов.) Ну может flac. Если для кино... ну для какого? Сериала про ментов для пенсии?)) Ну там если совсем мосфильм и вы сдаете фанеру музыки к фильму, ну... если перезапишите свои 44100 на другой комп с 48000 - похлопают по плечу, типа молодец.) Но в итоге на любом видео звуковая дорожка будет со сжатием. Поэтому для АК-47 не критично изготовлен ли курок из титана, имеет ли рожок напыление натуральным серебром), имеет ли приклад гипоаллергенную прослойку, инкрустирован ли ствол золотом.)) Вы бы еще про FM радиостанции спросили.) У артистов вообще по началу всегда шок, никто своих песен не узнает.) По региональным станциям вообще стоит жесткий диск на 1 Тб и на нем... 2000 песен плейлиста.)) Не просто в МР3, а дай Бог если с высоким битрайтом.) Кнопка старт и понеслось г...вно по трубам!)) Там конечно МР3-шку еще причешет какой то дорогой "улучшайзер звука", перед делением на стерео, кодировщик вдвое уменьшит динамический диапазон, в общем - отымеет, как Бог черепаху!))
@@NIKTONvideo , ммм, «сложить каналы без потерь» - это вообще алгоритмически наиболее простое дело. Это, не поверите, «тупо сложить числа» :) Ну, возможно, умножить на какой-то коэффициент - если надо учесть «уровень фэйдера на микшере». И сложить. И всё. С точки зрения нагрузки на CPU - тоже великолепно. Такая математика великолепнейше, бесподобнейше ложится на векторные расширения процессора (хоть SSE, хоть AVX, хоть SVE у Arm-процессоров) - лишь бы они поддерживали именно такой формат данных, который используется. Ну то есть, нет большой проблемы сложить 5-10-20-200 аудиоканалов. Есть, скорее, проблема их либо сгенерировать на лету, либо даже прочитать (с диска) :) Всё это модное нынче аналоговое суммирование - некоторые платят денежку не просто чтобы звукарь «красиво на свой слух сбалансировал каналы», а чисто за то, чтобы «суммировал их на аналоговой железке» - оно ж не потому что скорости не хватит. И не потому, что не хватит качества, ровно наоборот. А потому что многие любят «красивую аналоговую теплоту» (то есть... красивые искажения). Которые, впрочем, тоже в целом неплохо эмулируются в цифре :)
@@NIKTONvideo, а про видео - я скорее имел в виду случай «а вот свой мега-трэк я выложу на спотифаи в 44100, а ещё сниму с пацанами клип на ютупчик, и там этот же трек будет в 48000» .
Слушал тут работы Эндрю Чёпса последние и сравнивал с давними его работами. По моему субъективному мнению, полная деградация. Жаль что столь талантливый режисёр, качество променял на удобство. Ровно как бывшие качественные бренды, теперь выпускается в Китае. Как бы то но не то. Рассыпается на руках. Так бывает Канда подстраивается под обстоятельства, а не задаёт тон сами. И да вы правы.
спасибо за видео 😀 с видео тоже саме происходит, все почти оптимизируется для смартфонов, больще 90% видео смотрят именно на них, как раз с компрессированной музыкой. и да, 5G у нас не работает, а 6G мы еще долго не увидим
Тут еще такой момент что пережатый звук звучит намного лучше на низко чувствительных динамиках (т.е. на всей мультимедиа акустике даже до 15к и выше) Динамики в музыке нет,но человек слышит большую часть инструментов и значит воспринимает музыку. Нормальный же звук на такой акустике звучит... ну там кроме барабанов ничего не слышно...
Я свою динамическую, не пережатую музыку проверил на 10 разных акустических системах, и по типу и по цене - везде звучит хорошо. Недостатки колонок одинаковы при воспроизведении любого материала.
@@Даниил-к7п2и низко чувствительная акустика не звучит на тихой громкости от слова совсем,и НЕ воспроизводит нормально динамический диапазон. Поэтому на мультимедиа пережатый звук звучит лучше. На hi-fi оборудовании наоборот нет расстояния между инструментами и + искажения от пережатого. Одинаково на всех системах звучать априори не может ничто)
Первый миф самый жизненный. Приведу свой пример, я занимаюсь музыкой, сумарно имею порядка 80 тыс прослушиваний/мес. Так вот, первую песню я записал на дешевой Yamaha PSR-E363 и китайский микрофон BM-800, а она до сих пор на 1 месте в стате. Хотя откровенно отвратительного качества:) по сравнению с другими.
Александр, между 6:53 и 15:38 получается некоторое противоречие. С одной стороны, зачем заморачиваться с высокой частотой дискретизации, если по итогу все будут слушать в телефонах и всяких "балалайках", а с другой- финальное сведение "на белую"... А что значит сведение "на белую"? Если цель- выиграть Гремми, тогда лучше вообще не париться со сведением, а отправить профессионалам. А если музыка делается, так сказать, для народа. То в наушниках с плагинами можно получить вполне хороший результат. Ведь задача сведения - обеспечить максимальную транслируемость трека (т.е. чтоб он хорошо звучал на большинстве акустических систем. Для тех, кто не в теме ;-). Тот же правильно настроенный реалфонс вполне показывает частотные и фазовые ошибки (с опорой на референсы и анализаторы конечно). И последующая проверка на разной акустике это подтверждает. Конечно с такими плагинами тоже нужно научиться работать и понять, как и что слушать, но результат будет как минимум не хуже, чем от мониторов в углу на кухне.
Кстати, мне канал Давай Запишем посоветовал синтезатор casio CTS 300 класный синтезатор, спасибо)) да и не только синтезатор брал по вашему каналу а и всё остальное, звуковуху скарлет соло 3 поколения и так далее, и всем доволен, так что дело говорят ребята ))
8:05 - и почему тогда у меня яндекс.музыка так тихо звучит в последнее время? И в ушах, и в динамике телефона, и в колонках, подключенных к телефону. Прям тихо.
13:56 А как же референсные наушники?) И вообще, все субъективно. Не важно как ты делаешь музыку и на чем. Если твоя музыка находит слушателей, то значит все хорошо)
По поводу задержки между звуковой картой и миди клавишами хочу рассказать, синтезатор купил не зря, он лучше миди клавиш и сейчас расскажу почему, когда играешь с миди клавиш на 65/128 буфере, есть отставание ноты в миди дорожке, буфер уменьшать не получиться так как лично у меня начал трищать звук, и синты бивают разные по нагрузке на пк, как я нашёл виход, беру виртуальный синтезатор, ставлю там звук какой нравиться и звук синта ставлю на ноль, беру синтезатор реальный, нахожу там звук приблизительний и через микшерный пульт виводу себе в наушники без задержки, синтезатор подключен к миди по юсб как миди устройство, так вот, и пишу либо пед либо наигриваю арпеджио, и миди записивается без задержки даже при буфере 1000 семплов проверено, пользуйтесь 😊
Хак хороший, но это только пока вы играете «именно на клавишах», а не балуетесь модификациями самого звука на лету - модуляцией (а то и несколькими модуляциями), MPE/aftertouch, не крутите ручки, влияющие на звук синтезатора... Ну и даже пока громкость ноты не слишком влияет на звук - потому что у каких-то синтов громкий звук может звучать значительно иначе. В целом, это как раз причина, почему некоторые в итоге забивают на виртуальные синтезаторы вообще и переходят на аппаратные синтезаторы, все эти Moog-и/Prophet-ы/Hydrasynth-ы/MiniFreak-и :)
5 минута 25 секунда - компьютеры перестанут тянуть проекты. так же я с i7 11800H ( 8 ядер, 16 потоков) + 64гб оперативки. ддр4. 3200мгц частота каждой плашки. тянет и ташит все что можно!)
Миф №0 - что ваши треки кому-то нужны). 99,99% выбрасываемого в тырнет - безвкусица, повторы или откровенный плагиат. Всё уже давно приелось. Хотите взорвать болото? Сделайте то, что никто не делал. И слушателю будет по фиг на АЧХ, резонанс, мастеринг и прочую...не буду выражаться. Основную часть слушаемого и поныне записали в 60-70х годах, когда никаких современных обработок не было в помине
По поводу "наушников (какой кошмар)" - каково Ваше отношение к калибраторам по типу DSoniq Realphones или Sonarworks Reference? P.S. Написал, а потом услышал про это :)
Вопрос - перегрузка мастер секции это миф? Можно ли сводить дорожки записанные у всех инструментов под 0, если на мастере в инсерте стоит компрессор и лимитер? Или нужно опустить все фейдеры до -8 что бы на мастере складывалось ниже 0?
Здравствуйте, творческие задачи разные бывают, но я бы лично так делать не стал, вот по этой причине) ru-vid.com/video/%D0%B2%D0%B8%D0%B4%D0%B5%D0%BE-DRyIACDCc1I.html