Steinberg WaveLab для делающих самые первые шаги. Урок 2
Учимся искусству звукорежиссуры. Это просто. Сегодня обсуждаем новые ключевые понятия для работы со звуком
Стр.1 - Часть I
В прошлом
уроке мы выяснили, как оцифровывается звук, и что отображают на экране волны. Также узнали, что такое спектро- и сонограммы, поговорили о трехмерном представлении звуковой волны, выяснили, чем различаются понятия «громкости» и «уровня». Также поняли суть дискретизации и разрядности преобразования.
Сегодня мы продолжим наш разговор. Ух, и вопросов у нас будет… Но, все же начнем по порядку.
Что такое DC Offset?
Это отклонение звуковой волны от центра, появляющейся в результате присутствия некоей постоянной токовой составляющей. Обычно эта ошибка возникает при оцифровке и имеет прямое отношение к аппаратной части вашей звуковой студии. Исправляется она достаточно быстро в модуле Eliminate DC Offset, только единственный момент, на котором стоит заострить внимание — компенсацию DC Offset нужно делать сразу же после записи (в некоторых программах типа Sound Forge это можно сделать автоматически в установках перед записью, но в WaveLab этого нет).
Модуль записи
Нажмите для увеличения
Модуль записи у WaveLab достаточно стандартен, хотя и хорошо автоматизирован, в некоторых случаях даже уникален, например, в том, что уровень входного сигнала можно увидеть не только на двойном (peak/RMS — суть этих понятий мы рассмотрим чуть ниже) индикаторе, но и в виде спектрограммы. Причем в данном случае вам предлагается и стандартная уже на сегодня функция — «захват» звука, то есть программа может записывать то, что воспроизводится на компьютере на данный момент (в окне Recording нужно сделать активным флажок «Playback Output»).
Автоматизация выражена в том, что программа может стартовать и заканчивать запись при различных условиях. Например, вы можете, указать, что при наличии звука должен быть старт записи, а при тишине нужно остановить.
И если говорить конкретно об этих функциях, то их настройки вам будут доступны в окне Record Settings (кнопка Settings). Тут вы указываете, с какого уровня сигнала детектировать присутствие звука и стартовать запись, а также на каком уровне значения RMS идентифицируется тишина. В общем, окно не представляет собой ничего сложного.
Избавление от «кликов»
При анализе записанного звука довольно часто можно встретить некоторые артефакты, появляющиеся в результате щелчков в аналоговом и цифровом трактах, специфике произношения либо инструментальной игры.
От этого можно избавиться как вручную, так и автоматизированным образом. Для последнего варианта отлично подходит модуль Audio Error Detection and Correction, вызываемый из меню Analysis либо комбинацией Shift+R.
Нажмите для увеличения
В результате вам предлагается найти ошибки по трем методам: Click Detection 1 и Click Detection 2 (детектирование «кликов» на всем частотном диапазоне, хотя в варианте Click Detection 2 ширину сканируемого частотного (!) диапазона можно менять), и Digital Error Detection. Все ошибки пометятся маркерами, и в дальнейшем вы их сможете или исправить вручную самостоятельным образом, либо, оставшись в этом модуле корректировать все в пошаговом или автоматическом (сразу все) режиме, используя алгоритмы программы.
Теперь о методах исправления. Прежде всего, это линейная интерполяция, другими словами некое усреднение значений, в результате чего вместо «критического фрагмента» появляется обычная линия, соединяющая две точки на границах, отмеченных маркерами, помимо этого есть и другие варианты, то есть, специализированные алгоритмы для удаления щелчков длительностью менее 1 мс, или же около 3 мс, а также для больших аудиофрагментов (0,5-4 мс).
Работа с данным модулем может происходить в любой момент производственного процесса, начиная от записи, и заканчивая подготовкой финального микса — во всех случаях он полезен.
Итак, с этим разобрались, но чтобы пойти дальше нам нужно немного углубиться в теорию…
Эквализация, возникновение понятия
Слово «эквализация», как собственно, и «эквалайзер», происходят от английского «equalize», то есть «выравнивать». Для того чтобы понять суть этого термина следует обратиться к истории. Дело в том, что в эпоху рождения радио, появления первых радиоприемников качество транслируемых программ и музыки было очень далеко от совершенства. И точно также как современный обыватель радуется появлению новых технологий на дорогом компьютере, наши предки с восторгом увидели приемники, в которых было встроено две ручки для регулирования уровня низких и высоких частот (по существу, это два примитивных фильтра — НЧ (низких частот — low-pass) и ВЧ (высоких частот — high-pass), после был добавлен СЧ (средних частот — treble (presence)). Таким образом, появилась возможность настраивать звучание на более качественное, или «выравнивать». Вот откуда пришел этот термин.
И тут стоит отметить тот факт, что если мы уже не используем термин «выравниватель», а вместо него «эквалайзер», то для удобства понятие «выравнивание» в звуке определяется как «эквализация».
На чем базируются эквалайзеры?
Эквалайзеры базируются на фильтрах, то есть (в самом простом виде) технических средствах, позволяющих выделять определенную частоту в широком спектре сигнала. Яркий пример из схожей области — вы ищете любимую радиостанцию на определенной частоте, для чего и используете фильтры. Подобные устройства используются в звуке.
Среди основных характеристик фильтра — частота и крутизна спада (или как у нас называют «добротность», что в принципе верно, хотя в англоязычной терминологии она обозначается как «качество» («quality») или просто буквой Q). Что под последним подразумевается? Представьте, что вы процеживаете через марлю какую-нибудь жидкость, содержащую примеси. Через один слой фильтрация достаточно плохая. А если вы сложили марлю в несколько слоев — от этого качество фильтрации заметно улучшилось. Современные фильтры представляют собой сложные каскады из множества идентичных звеньев с различными вариантами их подключения между собой. Причем, для фильтров НЧ и ВЧ в силу их конструкции частота их срабатывания указывается как частота среза, то есть в НЧ пропускается спектр до нее, а в ВЧ — после нее. Это нам пригодится в дальнейшем. Для того чтобы более полно понять суть работы этих фильтров, вы можете открыть любой учебник по радиоэлектронике (самое начало).
Зачем появились микшеры?
В принципе, звукозапись или даже прямая трансляция того времени (начало прошлого века) была весьма забавной, поскольку музыканты рассаживались вокруг одного микрофона, причем степень удаления того или иного инструмента от него, зависела от их громкости и желаемого баланса. Если нужно было сделать запись или живую трансляцию оркестра, то музыканты рассаживались в специальной комнате, имеющей форму рупора (для увеличения громкости), а микрофон ставился в одной определенной точке, выбранной звукорежиссером. То есть было достаточно весело. И как уникальное ноу-хау после появились микшеры, то есть, устройства, которые могли «смешивать» («mix») аналоговые сигналы с различных источников.
Нажмите для увеличения
В результате стало можно производить запись сразу на несколько микрофонов, подключать дополнительно первые электроинструменты и совмещать все по громкостному (уровневому) балансу. Но… этого оказалось мало, инженеры и звукорежиссеры решили с помощью таких устройств не только делать баланс громкости (уровня), но и эквализировать каждый канал, то есть внедрили фильтры в тракты каждого. В результате микшеры приобрели тот вид, в котором существуют и поныне.
Что интересно, именно в русскоязычной терминологии… Миксером мы называем устройство для смешивания пищевых продуктов, микшером — звуковых сигналов, а у англичан это одно слово — «mixer».