音響あるいは楽器の世界で音を様々に加工する事をエフェクト(を掛ける)と言い、
エフェクトを掛ける機器を「エフェクター」と呼ぶ。
もっとも一般に身近なエフェクターは、カラオケなどでマイクにかけるエコーであろう。
「エコー」は、音声に周期的な残響音を繰り返し掛けることで、山彦、あるいは風呂場で
歌っているような音響効果(エフェクト)を作り出す。
ただし、楽器業界では、残響音を付加するエフェクターは「エコー」と呼ぶことは
殆どなく、「ディレイ」と呼ぶことが多い。 ディレイは、エコーよりも、より複雑な
残響の周期等や残響音の変調を作り出す機能を持つ場合が多い。
マイクによる音声のみならず、楽器にもエフェクトを用いる場合が多い。
(エレキ)ギターなどは、その本体にエフェクターを搭載している場合は稀であり
外付けの単体エフェクター(非常に多くの種類がある)や、マルチエフェクター
(1台で様々な音響効果を切り替えたり、組み合わせて使ったりする)を用いたり
あるいは、(ギター)アンプ側に搭載されているエフェクターを用いたりもする。
キーボード(シンセサイザーや電子ピアノ、電子オルガン等)は、その内部に
いくつかの基本的なエフェクターを搭載する場合もある。

これはローランド社のステージ用コンボオルガンVK-8 、往年の「ハモンド・オルガン」
とまったく同じ音色を電子的に(録音ではなく演算で)作り出すキーボードであるが、
ビブラート、コーラス、リバーブの3種類のエフェクターを内蔵している。
ビブラートというのは、演歌の「こぶし」と同様に、音程が細かく上下する揺らぎの
効果である。(厳密には、こぶしは喉でかけるビブラートで若干違うが・・)
あるいは、バイオリンやギターなどでは弦を押さえる指を震わすことで、弦の張力を
変えて同様の音程変動の効果を作り出すが、鍵盤楽器では基本的にはそういう
操作(奏法)は無理なので、このようにビブラートが搭載される。
なお、人間の歌う歌などでは音程の変化のみならず音量(音の大小)によるゆらぎを
伴う場合もあり、より複雑である、たとえば歌手の宇多田ヒカルのボーカルは、
音程の変化よりも音量の変化の方が大きく、音響的にはそうした音量変化のゆらぎを
「トレモロ」と呼んでビブラートとは区別して扱う。
(フェンダーのエレキギター、ストラトキャスター等に搭載されているトレモロアームは、
音響的に言えば音程変動なので、ビブラートアームと呼ぶのが正解)
ちなみに、「音の三要素」とは、音程(ピッチ)、音色、音量であって、
音程は「高い、低い」、音量は「大きい、小さい」と言う。
(音色とは、たとえばバイオリンの音とフルートの音は同じ音程・音量でも異なる
ように聞こえるのであるが、その音に含まれる倍音の構成が違うという事である)
音響に係わらない人が良く言う「TVの音を低くしてくれないか・・」というのは、音響
あるいは工学的な言い方としては誤りであって、それを言う場合は「TVの音(音量)を
小さくしてくれないか」が正解であろう。
ただし「かん高い声」というのは正解の要素もあって、ピッチ(音程)が高い、
あるいは音色として音声に含まれる倍音の構成が高い(高次倍音が多い)といえるだろう。
さらにちなみに「音の三要素」と「音楽の三要素」は異なる。
音楽の三要素とは、メロディ(旋律)、リズム、ハーモニー(和声)である。
さらに脱線すれば「カメラの三要素」とは、「絞り、シャッター、ピント」であるが
ここのところのデジタル時代においては、「ISO(感度)」も基本要素に加える
べきなのかもしれない。
もっとちなみに(汗)、色(絵の具)の三原色は「赤、青、黄色」であるが、
光の三原色は「赤、緑、青」(RGB)である。 絵の具は混ぜると暗い色になり、
光は混ぜると明るくなる、ここが根本的に異なる部分である。
----
さて、エフェクターの話に戻って・・

これもローランド社の、アナログ・シミュレーション・シンセサイザーのJP-8000である。
私が良く記事中で書いているように、楽器あるいは音響の世界では、
カメラよりも15年ほど前にデジタル化を果たしている。 具体的には、CDは
デジタルオーディオの基本的なものであるが、レコードがCDに急速に置き換わった
のは、1980年代の後半であった。 そのころ、カメラの世界では、デジカメどころか、
AF機の初期のニコンF4やキヤノンEOS-1ですらまだ発売されていない。
電子楽器も同様にアナログシンセサイザーは1980年代に絶滅、ほぼ全てがデジタル
シンセサイザーに置き換わった。
しかしながら写真よりももっと趣味的な要素が大きい楽器(音楽)の世界においては、
デジタル楽器の音を嫌い、アナログの暖かい(すなわち不安定な要素がある)音を
要望する声は、現在のデジタル写真対銀塩写真の対比よりも、もっとずっと切実な
ものがあった。(注:アコースティック楽器、すなわち、電気を使わない楽器は
勿論ずっと残っている、これはあくまで電子楽器の範疇の話である)
市場ではもはや生産されていないアナログ電子楽器の名機、たとえば、ローランドの
ジュピター、コルグのMS,ヤマハのCS、フェンダーローズピアノ、ハモンドオルガン、
ホーナークラビネット、ムーグシンセサイザー、プロフェット、アープ、オーバーハイム、
メロトロン、エーストーン、テルミン、各種ギターシンセなどは、
中古市場でのきなみ高騰、しかし、もはやメンテナンスがほとんど不可能であるから、
まともな音も出ない電子楽器(特にキーボード系)が高値で取引されている状況であった。
だが、楽器業界では、急速に発展するデジタル技術をむしろ持て余していた、
ビット数やサンプリング周波数を上げて音質を良くする試み・・(これはまさしく
デジタルカメラにおける画素数を増やしているのと同等であるが)も、もはや
いくら音質を上げても人間の耳では聞き分けが不可能なくらいになって一段落すると
今度はデジタル技術を別の付加価値として転用する試みがなされるようになった。
その典型的なものは「アナログ・シミュレーション」である。
(ちなみに、誤:シュミレーション 正:シミュレーションである。間違えないように)
それ以前のデジタル電子楽器では、過去の名機の音色は、サンプリングという技術、
言ってみれば、楽器音を録音して、鍵盤を押してそれを再生するという方式で再現
していた。 でも、サンプリング音、すなわち録音された音色は、自分の好みに
色々変更(エディット)するのは困難であるし、鍵盤を弾くタッチや特殊な演奏技法
(例:各種操作子によるモジュレーション等)により音色が変化することはない。
ならば・・とばかり、デジタル技術は、アナログの音色を完全に計算(演算)で
再現することに費やされていくのである。
冒頭の写真のハモンドオルガンの音が出るキーボードもそれだし、2枚目のアナログ
シンセサイザーと同様の音作りができるキーボードもそれである。
カメラ(映像)のデジタル化などはまだ始まったばかりであるが、音響のデジタル化と
15年遅れでほぼ同等の道を歩んでいるように思える。
今後は、過去の名レンズの描写などを再現できるような方向性もデジタルカメラの
進化の1つの道としてあるだろうことは容易に想像ができる。
----
さて、音をデジタルで処理する、というのはいったいどういう概念なのであろうか?
中でも、エコー(ディレイ)というのは、概念が想像しやすい。
エコーは、最初に入力された音が、ある一定間隔、たとえば、1/10秒=100mSなら
1/10秒ごとに、少しづつ小さくなりながら繰り返して再生されれば良いのである。
デジタルで処理をするなら、まず音を細かい要素に分解して・・・
この時、1秒間にどれくらい音を時間的に細かく分解するかが、サンプル
(サンプリング周期、サンプリング周波数)であって、どれくらい音量的に細かく
分解するかが、ビット解像度である。 たとえばCDならば、16bitステレオ(左右)
で、44.1KHz のサンプリング周波数、これはすなわち、1秒間に4万4100回も音を
65536段階(=16bit)に細かく分解しているということを示す・・・のであるが。
エコーにおいては、分解した音を、(半導体)メモリーなどに順次書き込み、
一定時間後にそのメモリーから読み出してあげれば良い。
その際に、メモリー空間の最初と最後をつないで(ループ)にしてあげれば自動的に
一定時間での繰り返しが起こる、さらにそこに音量を減衰する仕組み(=ボリューム、
デジタル信号処理的には、ある係数を掛けて演算する乗算器)を入れてあげれば、
だんだん小さくなる残響音が簡単に得られる。
----
ビブラートは、音程のゆらぎである、これはエコーと同じようにメモリーに書き込んだ
音声のデータを、一定時間後に読み出す際に、それより早く読み出したり遅く
読み出したりすれば良い。 これはすなわち音声の波形を伸ばしたり縮めたりして
いることと同様であり、音程が高いほど波形の山の間隔が短い、音程が低いほど
波形の間隔が長い、という原理を利用している。
その読み出しを早くしたり遅くしたり、というゆらぎの周期を発生する機能は、
LFO(低周波発振器)である。 LFOは、まあ、低周波マッサージのような
もので(笑)ごくゆっくりとした1秒に数回というゆらぎだけを作り出す、
人間の耳に聞こえる音声は、最も低くても毎秒20回(20Hz)のゆらぎが必要なので
低周波は音としては聞こえない。 この低周波で元の音声のピッチをゆすってあげると、
ビブラートのできあがりである。
----
コーラスは、たとえば複数の音声で合唱しているような厚みのあるゆらぎの効果である。
複数の人間が合唱すると、全員が同じ音程で歌っているつもりでも、いくらそれが
プロの歌手であろうが、わずかにピッチ(音程)がずれる。 その時に、なんとも
いえない心地よい音の厚みが生じるのである。
これをデジタル信号処理で実現する場合は、上記ビブラートのかかった音と、
何もエフェクトをかけないストレートの音とを混ぜてあげれば良い。
できれば、たくさんの異なるビブラートのかかった音を混ぜると、より厚みがある
「多層コーラス」ができるが、まあ、実用的には、原音1、エフェクト音1を2つ
混ぜるだけで十分な効果が得られる。(できれば、左右ステレオから空間でミックス
すれば自然なコーラス感が得られる)
---
次に、音色を変更するための要素として、ごくごく基本的なものにLPF
(ローパスフィルター)がある。 ローパス、つまり低いものをパス(通過)させる
ものがLPFである。
ローパスフィルターは、デジタルカメラの部品としても用いられているので、
良く聞く名前だと思う。 なのでこの機に少し細かい原理と効果を説明しておこう。
ローパスフィルターは、「低いモノ」を通過させるのであるが、じゃあ、そのモノ
って何だ? これは、基本的には「周波数」であると思えば良い。
音響の世界で言えば低い「音」を通過させて、高い「音」を遮断するのである。
「低い音ばかり通過したらどんな音になるのだ?」
・・・低音ばかり出て、モゴモゴした音になる。
最近では5.1chサラウンドシステムを自宅に組む人も多いかと思うが、
そのスーパーウーハー(サブウーハー)から出る音は、まさにLPFを通過して
モゴモゴ、ボンボン、ズンズン、といった低い音を専門に再生するスピーカーである。
また、LPFでは、単に固定的に低い周波数だけを通すのみならず、ある音程に
追従しながらその高い部分をカット、すなわち倍音をカットする機能を持たせるように
デジタル音声処理のプログラム(アルゴリズム)を組む事も可能である。
(これは、TVF、タイム・バリアント・フィルターと呼ばれる。またアナログシンセ
では、VCF,ボルテージ・コントロール・フィルターと呼ぶ場合もある)
こうすると、高い倍音が消えて、どんな音色、たとえばバイオリンやトランペットの
音を入力しても、フルートのようなまろやかな音色(正弦波に近い)ものとなる。
デジタル信号処理のプログラム(アルゴリズム)において、最も基本的なLPF
は以下のようなダイヤグラムで示される。

Xが音声入力、Aは乗算器(ボリューム)、プラスに丸は加算回路、黒い小丸は分岐
Z(正確にはZのマイナス1乗)は、遅延(正確には1サンプル周期の遅延)
Bも乗算器(正確にはマイナス係数の乗算器)、Yが音声出力である。
この図(アルゴリズム/ダイヤグラム)がどんな処理を示しているか、というと。
「ある音に、それより少しだけ前の音を加えて平均化しなさい」という意味である。
積分器とも言われるこの簡易LPF回路においては、デジタルにおいて、1秒の
間に数万回も細分化された音を、その1つ前のステップの音を加味しながら
鳴らしていくという処理になる。
この処理の効果だが、概念的に言えば、1つ前の音が加わるということは、
音の波形が急激に変化する、すなわち波形の周期が短い、高い音(高音、複雑な
倍音等)が入力されても、そんなに急に変化させないように、「なまらせて」
出力する、ということを意味する。
つまり「急激な変化は通しませんよ、ゆっくりしたやつだけ通ってくださいね」
という処理になるので、これは、すなわち、「低いモノだけ通します」という
効果(原理)になることが概念的に理解できるだろうと思う。
----
ちなみに、カメラの世界におけるローパスフィルターにおいては、通す低い「モノ」は、
音声の周波数ではなく、映像の周波数、すなわち「空間周波数」である。
空間周波数が高い映像というのは、細かい模様が多く含まれている画像の事である、
たとえば幾何学的な曲線だけで構成された映像とか、ピントがボケている映像とかは、
「空間周波数が低い」、そして、水面のさざ波とか、遠くの木樹の細かい葉っぱとか
「空間周波数が高い」のである。
で、映像ローパスフィルターは、あまりそうした細かい画像の変化を通さずに、
なまらせた画像のみを通すという意味である。 もちろんカメラの解像度とか
カメラにおける画像処理エンジンに悪影響をおよぼす、あるいは細かすぎて意味の
無い映像をカットするという意味であり、どんな画像もピンボケになるという事では無い。
----
ローパスフィルターの「効き」を変えるには、先般の図(アルゴリズム)において
AとBの値を変えてあげれば良い。 ちなみにAとBは足して常に1.0となるし、
Bは1を超える値にはならない。 Bを1より大きくすると、入力した値は、
Bでより大きな値になって加えられる事が循環するため、値がだんだん大きくなって
くるのである。 これを発振と言い、発振器、すなわちオシレーターはこの原理を
利用している。 色々な音程を発振できれば、楽器にもなりうる基本原理である。
じゃあ、0点いくつにするのか?とは聞く無かれ・・ それは、まずサンプリング
周波数があって、それに対するどこまでの周波数を切り捨てるか(カットオフ・
フリクエンシー)によって、計算で求めなければならない。
ここで計算のやり方を示していると、夜が明けて朝になるので、書かないが・・
(必要ならばやってもいいが・・サインとかコサインの三角関数が出てきて、
きっと退屈なだけだと思う・・苦笑)
----
さて、エフェクターの話・・ 実はいくらでも書くことがあるのだが(汗)、
専門的で難解な部分が多々あると思うので、今日はここまで。
次回はもう少し音響より離れ、さまざまな世の中の事象やカメラ(写真)に
係わる部分の解説を中心にするとしよう・・