Date: 2014-01-05 12:22 pm (UTC)
From: [identity profile] kray-zemli.livejournal.com
Были бы проектировщики грамотными, они бы знали что такое "резонанс" и сделали бы длину пролетов моста РАЗНОЙ

Ну и как это поможет? Резонансы останутся. Правда, их частоты перестанут быть кратными.

Date: 2014-01-05 07:11 pm (UTC)
From: [identity profile] pavel-ladikov.livejournal.com
Видимо я должен объяснить, что такое резонанс?
Вы лучше погуглите это слово.
Скажу только что подавление общего резонанса как раз и достигается разнесением собственных частот резонанса всех компонентов системы.
Для самовозбуждения системы имеет значение не их наличие, а их результирующий уровень.
Условием самовозбуждения системы является наличие усиления (то есть коэффициент усиления более единицы) на частоте резонанса. Раскидывая резонансы по частотам - мы получаем снижение усиления на любых частотах резонансов.
Применительно к волгоградскому мосту это выглядит так - если один пролет резонирует от ветра на той же частоте, что и другие пролеты, при этом они жестко связаны и передают друг другу изгибающие усилия - значит они все будут усиливать колебания друг друга, попадая в фазу колебаний.
Если у них разные частоты собственных колебаний - они начинают тормозить друг друга, поскольку фаза колебаний нарушается. Ну да ладно.

Date: 2014-01-05 07:43 pm (UTC)
From: [identity profile] kray-zemli.livejournal.com
Хрен с ним с мостом, давайте про ваши микрофоны.

Система микрофонов может усилить какие-то частоты только в конечное количество раз (не превышающее число микрофонов), по сравнению с одним микрофоном. Это, конечно, может несколько повысить вероятность самовозбуждения на длинах волн, сравнимых с расстоянием между микрофонами. Тем не менее, на длинах волн, существенно превышающих это расстояние, несимметричность расположения микрофонов уже мало влияет. И система всё равно "заведётся", если микрофон попадает в звуковое поле громкоговорителей. Разве нет?

Date: 2014-01-06 06:17 am (UTC)
From: [identity profile] pavel-ladikov.livejournal.com
Давайте поговорим про микрофоны.
Вы затронули совсем другую тему, тему акустического самовозбуждения, не имеющую отношения к топику, то есть причине установки группы микрофонов вместо одного.

Так вот, усиливает частоты не система микрофонов, а усилитель, именно его ручку громкости нужно крутить, чтобы снять самовозбуждение. Я выше упоминал про изощренный способ "сдвига частоты" цифровым процессором - это как раз эквивалентно "пролетам моста" разной длины - то есть если громкоговоритель излучает НЕ ТУ частоту, которая была на входе в микрофон - значит условия резонанса не возникают. Тем не менее, до беспредела и в этом случае увеличивать звук не получится, можно только его существенно прибавить.

Но давайте обсудим обычную ситуацию прямого усиления.
Умный звукорежиссер на тракт прямого усиления микрофон-громкоговоритель кроме усилителя обязательно поставит много-многополосный эквалайзер. Это нужно для того - чтобы привести комплексную АЧХ (амплитудно-частотную характеристику) всей системы в максимально линейное состояние с максимально подавленными резонансами. В этом случае громкость звука можно увеличивать намного больше без возникновения самовозбуждения системы. Самовозбуждение всегда возникает на той частоте - на которой усиление максимально, и это ограничивает громкость других частот, которая может быть недостаточной. В линейном тракте все частоты звучат одинаково громко, и это снимает проблему.

Короче говоря, задача звукорежиссера - в первую очередь привести всю систему к линейности АЧХ. При этом недостаточно - чтобы микрофон был качественным, колонки были высококласными, усилитель идеальным. На АЧХ влияют акустические резонансы самого помещения, окружающих предметов, их "заглушенность" (отражательная способность) и так далее. Для этого нужен эквалайзер.
Ппри настройке выводим движки всех частот в максимум и плавно увеличиваем громкость в помещении до точки начала самовозбуждения и слушаем частоту самовозбуждения. Убираем на эквалайзере эту частоту, самовозбуждение исчезает, добавляем громкость до начала самовозбуждения - уже на другой частоте. Повторяем в цикле до тех пор - пока самовозбуждение будет становиться шумоподобным, без выраженной частоты резонанса. Потом убираем громкость настолько - чтобы от короткого резкого звука не оставалось послезвучия, эффекта "бочки". Громкость общего усиления от микрофона как правило останется более чем достаточной.

Как минимум это зависит от акустических параметров среды. То есть - отражательной способности помещения. Пустое помещение и набитый людьми зал - это абсолютно разные по возможностям настройки условия. Поэтому звукорежиссер должен иметь возможность настроиться в заполненном зале заранее.

Теперь о микрофонах. С точки зрения линейности АЧХ, одиночный микрофон гораздо лучше чем четыре штуки в ряд, под него систему настроить проще и громкость будет выше. Группа микрофонов ПОРТИТ линейность тракта - причем портит его на самых заметных частотах - расстояние 15 см между двумя соседними микрофонами создает интерференцию на частотах от 1000 герц и выше, расстояние в полметра между крайними - от 300 герц и выше. Фактически захватывается самая чувствительная для слуха "голосовая" часть диапазона.
Другими словами - одиночный микрофон имеет АЧХ близкую к идеальной, а четыре микрофона в ряд вследствие интерференции дают гребенчатую ачх на самых важных частотах, которую почти невозможно компенсировать эквалайзером.
Поэтому для установки группы микрофонов в ряд может быть только одно оправдание - о котором я сказал в самом начале. То есть "усреднение" чувствительности к расстоянию до докладчика.

Date: 2014-01-09 02:39 pm (UTC)
From: [identity profile] pavel-ladikov.livejournal.com
Тут знаете... чем дальше в лес, тем толще партизаны.
Я ведь когда говорил об интерференции, не затрагивал тему позиционирования источника звука.
Упрощенно говоря - если есть два микрофона , а источник звука (рот) находится строго на равном расстоянии от обоих - тогда условий для интерференции нет. Потому что в оба микрофона звук будет доходить абсолютно одновременно.
Теперь случай с тремя микрофонами. В отличие от двух микрофонов, это уже будет не плоскость равных расстояний до микрофонов - а единственная прямая линия - если микрофоны расположены в вершинах равностороннего треугольника, две точки - если микрофоны расположены неправильным треугольником - о вообще ни одной точки расположения источника звука - для трех микрофонов в ряд!
Ну а четыре микрофона - вовсе нерешаемое уравнение.

Теперь об отдельной задержке для каждого микрофона. Это верно, если гора (то есть оратор) не идет к микрофонам, то можно микрофонам создавать виртуальные расстояния и изменять их.
Не меняется только одно условие - для каждой точки в пространстве существует только один единственный вариант настройки задержек. Стоит оратору уйти в сторону на 20-30 сантиметров - результат может стать даже хуже, чем если совсем звук не обрабатывать.

Здесь мы затронули извечный конфликт сторонников "хайэнда" и сторонников "домашнего театра". Просто там тема звуковоспроизведения, а тут тема звукоусиления. Проблема одна, проявления разные.
Коротко о проблеме:
Почему у человека два уха, а не одно и не три? Анатомические нюансы с "внутренним, средним и наружным" не рассматриваем.
Ответ: Два уха всегда и у всех, даже у тех чья способность выжить зависит о точности слуха - потому, что этот вариант единственный, позволяющий точно локализовать направление и расстояние до источника звука. Работает два принципа локализации:
1) по разнице спектра (то есть тембра) звука для каждого уха - это грубый, но быстрый способ;
2) по фазовому сдвигу между источниками - а это как раз и есть эффект интерференции, создающий гребенчатость АЧХ, то есть в конечном итоге тоже меняющий тембр, но гораздо сложнее. Он дает инфу о направлении и расстоянии до источника.
Очень эффективно работает форма ушной раковины, которая четко отличает источник звука спереди от источника звука сзади. И помогает сформировать разницу в определении направления.
Мы проводили лабораторный эксперимент в университете. Ставили две колонки S90, одну перед слушателем, вторую сзади слушателя. Он должен был, не поворачивая головы, определить, какая из колонок звучит.
На синусоидальном сигнале ошибка была 50/50. На прямоугольном (то есть широкополосном) ошибок вообще не было. Понятно что звук сзади был более глухим. Когда я перенастроил эквалайзеры отдельно в каждом канале - я заставил слушателя стопроцентно - ошибаться!
Таким образом - при правильной звукорежиссуре для каждого канала - нужны только две фронтальные колонки, два канала звука - чтобы полностью построить прозрачную звуковую сцену, способную разместить виртуальные объекты где угодно, спереди, сзади, сбоку, сверху или снизу.
Мой любимый диск - Алан Парсонс, "Я робот" 1977 года. Парсонс - звукорежиссер, создававший альбомы битлов, а позже - пинкфлойда. На диске есть одна хоровая композиция, которая при прослушивании на правильной аппаратуре создает реалистичность просто невероятную. Можно точно определить голос каждого вокалиста, где он стоит, слышно как он набирает воздух в грудь - на фоне непрерывного звучания других певцов!

Противоположная крайность - "домашний кинотеатр", системы 5.1 или 7.1. Считается, что чем больше каналов, тем лучше звук. Это ложь. Много каналов - это звук "изниоткуда", но самое плохое - нет прозрачности, нельзя услышать тихие звуки на фоне громких. Смысл появления "домашнего кинотеатра" - из кинотеатра публичного. Там существует проблема "фронта волны", когда из-за большой величины зала возникает эффект не просто интерференции, а реверберации и даже эха. Зритель в любой точке зала - слышит звук сразу из разных колонок, а расстояние до них разное. Идеология "долби сурраунд заключается в создании "фронта волны", чтобы из боковых динамиков звук доходил с задержкой, равной задержке по воздуху от фронтальных. Ни о какой прозрачности звука нет и речи - там шла борьба тупо с неразборчивостью!
Короче - тема огромная и бесконечная.

Date: 2014-01-09 03:18 pm (UTC)
From: [identity profile] pavel-ladikov.livejournal.com
В идеале наушники позволяют максимально точно воспроизвести "звуковые консервы", записанные звукорежиссером.
Скажем так
- есть оркестр на сцене
- есть виртуальный слушатель в центре зала, конкретно голова с микрофонами вместо ушей и даже резиновыми ушными раковинами, повторяющими в точности человеческие.
Далее каждое ухо идет в независимый трек и пишется на диск.
Если БЕЗ какой либо обработки воспроизвести звук точно в каждое ухо наушниками - мы получим полную точную звуковую картину из зала.

Теперь о реальности. Ни одна работа звукорежиссеров реально не ориентирована на прослушивание наушниками. По той простой причине - что наушники это средство индивидуального прослушивания, и кроме того, оно изолирует человека от реального окружения, что вызывает дискомфорт у большинства людей. Люди предпочитают слушать колонки.
Поэтому звукорежиссер обычно подбирает звуковую сцену, исходя из расположения бытовых колонок. То есть в случае с записью звука акустического оркестра или хора он поставит микрофоны примерно так - как стояли бы колонки в квартире по отношению к слушателю.
Конечно, идеально точной модели звуковой сцены при воспроизведении при этом не получается, но даже то что получается - тоже может звучать очень прозрачно. Фактически от паразитного звукового фона в принципе невозможно избавиться - отражения при записи есть от пола, от потолка, от мебели. При воспроизведении на них наложится звуковой фон помещения прослушивания - он конечно ухудшит результат, но с этим можно примириться.
В нынешних студиях звукорежи упрощают задачу, они пишут каждый инструмент и каждый голос в полной акустической изоляции, чтобы никаких отражений не было. А при сведении сами формируют "виртуальное помещение", которое максимально похоже на предполагаемые условия у слушателя.
Edited Date: 2014-01-09 03:20 pm (UTC)

Date: 2014-01-09 02:54 pm (UTC)
From: [identity profile] pavel-ladikov.livejournal.com
Звуковой редактор - это хорошо. Но было бы суперидеей написать акустический звуковой синтезатор, это сейчас сверхактуально.
В восьмидесятых была мода на аналоговые синтезаторы звука, я тоже немало в этом процессе поучаствовал, сделал синтезатор эффектов и синтезатор ударных инструментов.
Но потом появились цифровые синтезаторы с сэмплерным синтезом, с практически неограниченными возможностями (только программу поменять) и аналоговые умерли.
Но есть проблема. Сэмплерный синтез - это звуковой фарш вместо мяса. Это котлеты вместо бараньей ноги.
В музыкальном инструменте главную роль привлекающую слушателя играют переходные процессы, те самые миллисекундные начала нот и их окончания - абсолютно неповторимые ни разу и несущие огромную информацию мозгу. На этих нюансах гениальный музыкант отличается от старательного студента музучилища.

Так вот - компьютерный сэмплерный синтез - это набор одних и тех же повторяющихся звуков. На десятой секунде он перестает быть новым и начинает надоедать.
Как уйти от фарша в компьютерном синтезе звука? Отказаться от сэмплов (то есть кусочков записанных звуков реальных инструментов), а создавать физическую модель акустического инструмента в виртуале. То есть создавать симулятор свойств металла, дерева, воздуха и так далее.
Это крайне сложная задача, но если она решена - можно создавать фантастический звук фантастических инструментов, который в реальности невозможно получить. А самое главное - это будет живой звук.