Между акустическим залом и VR-шлемом
В Москве прошел III Международный симпозиум индустрии звукозаписи академической музыки.
Как смикшировать дальний и ближний план на записи камерного концерта? Какая нейросеть корректнее превратит аудиофайл в партитуру? Почему группам с электрическими инструментами стоит хорошо подумать, прежде чем выступать в «Зарядье»? Эти и другие вопросы звукорежиссеры обсудили на III Международном симпозиуме индустрии звукозаписи академической музыки. Организатором мероприятия является Российский музыкальный союз (далее – РМС). Событие состоялось при поддержке Президентского фонда культурных инициатив.
Как отметила председатель Гильдии звукорежиссеров РМС Мария Соболева, возобновить форум помог Президентский фонд культурных инициатив: «Я преклоняюсь перед людьми, которые смогли придумать и организовать такое сложное мероприятие. Мы постарались построить программу так, чтобы она затрагивала самые разнообразные стороны нашей профессии и каждый нашел для себя что-то любопытное».
Звукорежиссер, преподаватель кафедры музыкальной звукорежиссуры РАМ им. Гнесиных и Института современных искусств Илья Донцов поделился секретами записи камерной музыки на концерте и в студии. Он подробно остановился на том, как адекватно отразить в фонограмме ближний план, передающий тембр, дальний, характеризующий помещение, где звучит музыка, и главный. По его словам, здесь крайне важно обращать внимание на угол записи, чтобы крайние звуки не «прилипали» к колонкам.
По словам Ильи Донцова, необходимо быть внимательным и при обработке сигнала, в частности микшировании ближнего и главного плана: «В камерной музыке очень важно компенсировать задержки. Некоторые коллеги не считают это необходимым. Все дело в том, что люди, занятые оркестровыми записями, сталкиваются с задержками в диапазоне от 5 мс и выше, и там гребенчатый фильтр не так заметен на слух. У нас же в камерной музыке задержки от 1 до 4 мс, и они попадают ровно в тот диапазон, где мы очень хорошо слышим гребенчатый фильтр. Если вы записываете камерные составы с ближними микрофонами, то с задержками придется работать».
Компенсировать задержки можно с помощью импульсного сигнала. Лучше всего для этого «прохлопать» каждый индивидуальный микрофон.
Ассистент-стажер ВГИК, звукорежиссер и супервайзер Алексей Быстрых рассказал собравшимся об ИИ-системах, которые могут быть полезны в работе с музыкой. Он напомнил, что помимо всем известных генеративных нейросетей вроде Suno или Mubert существуют нейросети сверточные, рекуррентные, транскрипционные. Последние часто справляются с расшифровкой аудиофайлов лучше привычной Pro Tools. «Да, нейросети вполне могут порождать всевозможный брейнрот. Но ведь и ядерная энергия используется для разрушительных целей. Плохой музыки полно и без нейросетей. ИИ же может быть очень полезен. Это не спиннер, и он никуда не укатится, а еще он никого не заменит. Напротив, нейросети могут здорово помочь», — отметил Алексей Быстрых.

Параллельно с ИИ-индустрией, в ряде случаев готовой минимизировать участие музыкантов, активно развивается противоположный тренд, связанный с живым звуком. Пианист, звукорежиссер Московского концертного зала «Зарядье» и коллектива Imperialis Orchestra Евгений Поцикайлик рассказал об особенностях звукоусиления в акустических залах вроде Венской филармонии, Концертного зала имени Уолта Диснея или московского «Зарядья»: «Акустический концертный зал — это помещение, которое специально спроектировано для исполнения музыки без электрического усиления. Даже материалы отделки подбирают исходя из того, как они поглощают звуковые волны. Скидку делают даже на звукопоглощение человеческого тела. Реверберация пустого “Зарядья” кардинально отличается от “Зарядья” при аншлаге».
Симфоническому оркестру максимально комфортно в акустическом зале, а вот подойдет ли гулкий зал рок-группе с электрогитарами и комбиками? Евгений Поцикайлик предложил сначала хорошо обдумать целесообразность выступления именно на такой площадке, а потом предпринять меры для снижения реверберации: использовать кулисы, звукопоглощающие щиты, шерстяной задник. При этом сценические мониторы, если без них все же нельзя обойтись, должны бить прямой наводкой в голову исполнителя, а не звучать откуда-то с пола.
Релевантный звук играет важную роль в технологиях погружения, таких как виртуальная или дополненная реальность. Собственно, амбисоник-системы появились еще в 1970-е годы, однако к 1990-м растеряли популярность, так как их негде было применять. Новый расцвет технология записи объемного 360° звука пережила с появлением всевозможных шлемов и очков для VR-опыта, рассказал ведущий звукорежиссер Московской государственной академической филармонии Валентин Смирнов: «Слушатель становится актором. Он активно участвует в том, как он воспринимает партитуру. Он может слышать музыку так, как ее слышал композитор».
Объемному звуку как части иммерсивного опыта было посвящено и выступление главы AES Immersive Audio Academy, основателя компании Andrés Mayo Mastering & Immersive Audio Андерса Майо: «Восемь-десять лет назад мы думали, что будущее контентных отраслей за VR. Однако это будущее так и не наступило. Думаю, проблема во многом в том, что аксессуары вроде шлемов оказались слишком громоздкими. Уверен, с появлением удобных девайсов, а то и нейроимплантов, ситуация изменится. А самое главное, нужно понимать, что для технологий погружения слух даже важнее зрения, ведь мы не можем видеть то, что у нас за спиной, а слышим мы буквально на 360°».
По словам Андерса Майо, «иммерсивный» звук уже активно используется при записи живых концертов, в презентациях продуктов, представлении брендов, клипах, подкастах, образовательных проектах и виртуальных турах по городам мира. Именно объемный звук, воспроизводящий наше естественное восприятие, обеспечивает глубокое и захватывающее погружение в тот или иной опыт.