あるほとんど忘れ去られたバージョンの中で、
魂斗羅は記憶の中の任天堂FamiComで遊んだものとは違う。
それはもっと遅く、少しぎこちなく、画面は粒子感が散らばった夢のように見える。
音はまるで壊れかけのラジオから染み出てくるようだ——音楽ではなく、「音楽になろうと努力している信号」だ。このバージョンは単なるダウングレード移植ではなく、80年代の家庭用コンピュータの残酷な現実を映す鏡のようなものだった:音は当たり前にあるものではなく、計算資源の残りかすだった。
ここが私たちの入り口だ。ここから、磁帯のヒスノイズの中へ滑り落ちていく。
Amstrad CPC 464では、ゲームは「再生」されるものだった。
Playボタンを押すと、磁帯が回り始め、白ノイズに近い音の連なりが溢れ出す。ここにはシンプルだが魅力的な事実が隠されている:あの時代、データとは音の符号化形態だった。しかし本質的には音波である。
科学的な観点から見れば、磁帯は電磁信号の変化を保存している。
数学的な観点から見れば、これらの信号は離散的な波形符号化(0と1の時間系列)として理解できる。
哲学的な観点から見れば——境界が崩れ始める。
プログラムを「聴きながら」、ゲームを「再生する」。
この境界が曖昧な状態が、磁帯時代を奇妙な混種文明に変えた:
ハッカーはオーディオローダー(audio loader)を使ってデータ転送速度を最適化し、芸術家は逆にデータを音の素材として操る——これが後のtape musicやglitch美学の原型となった。
言い換えれば、磁帯とは 音即ちデータの哲学装置 である。
Amstrad CPC 464に搭載されているのはAY-3-8912、三声道のプログラマブルサウンドジェネレーターだ。
同時代のZX Spectrum(特に初期の48K版)は基本的にブザー一つだけだった。
AYチップは三つの独立した声道、ノイズジェネレーター、音量制御を提供する。
それは「有限次元の音楽空間」に近い——
三本のトラック上で周波数と振幅を配置できる、低次元の関数システムを操作しているようなものだ。
この制限はとてもクリーンであり、同時に残酷でもある。
まるで組合せ最適化問題を解いているようだ:三本の線でどうやって一つの世界全体をシミュレートするか。
それがCPCの音に奇妙な秩序感を与えている。それは「設計された音」だ。
General InstrumentのAY-3-8912(CPC専用版)は三つの独立声道+ホワイトノイズ+エンベロープジェネレーターを備える。A左、B中央、C右——ハードウェアステレオ!内蔵スピーカーはモノラル出力だが、ヘッドフォン端子ではステレオが可能。
科学的には、それは矩形波の詩人である:各チャンネルは12-bitの周期レジスタで周波数を制御し、ノイズは5-bit、エンベロープは4-bitの形状+16段階の音量。CPCの1MHz AYクロックにより、周波数は人間の聴覚の極限(15Hz〜62.5kHz)まで精密に制御できる。
魂斗羅の中で、散弾銃に切り替えたときの「ジジジ」という効果音は、チャンネルCのノイズ+チャンネルAの高速矩形波の重ね合わせだ。
これに比べて、初期ZX Spectrumのbeeperは本質的にオン/オフ信号しか出力できない。
声道もなく、音色もなく、優しさもない。
しかしここで人間の狡猾さが光り始める。
開発者たちはCPUを極めて高速で切り替えることで、「擬似多声道」とパルス幅変調(PWM)を生み出した。これは時間平均で振幅をシミュレートする技術であり、本質的に音の問題を時間分割の問題に変換したものだ。
AY-3-8912の本質は「音源」ではなく、一組の カウンタ(counter)+分周器(divider)+論理ゲート(logic gates) である。
音の核心はこの関係にある:
f = \frac{f_{clock}}{16 \cdot }
この式は一見退屈な工学の細部に見えるが、実は8-bit音楽宇宙全体の重力である。
:チップのクロック(例:約1MHz級)
:レジスタに書き込む整数値
意味はシンプルだ:
音高は連続ではなく、整数で切り刻まれたもの である。
好きな周波数を自由に得られるわけではなく、「第N番目の可能性」しか選べない。
数学的にはこれは 離散周波数空間(discrete frequency space) と呼ばれる。
音楽的には、あの微妙にずれつつも魅力的なchiptuneの味わいそのものだ。
その三つのトーンチャンネルはそれぞれ独立して周波数を設定できるが、ノイズやエンベロープなどの一部リソースを共有する。これにより奇妙な制限が生まれる:
三次的空間だと思っていたものが、実は「2.5次元」であるような。
音の組み合わせは以下のような簡略モデルで表せる:
y(t)=∑i=13Ai⋅square(fi,t)+noise(t)
ここでの square() は滑らかな波形ではなく、+1/-1の急激なジャンプ関数であり、デジタルな縁からの暴力のようだ。
しかし本当に面白いのは エンベロープ(envelope generator) である。
それは自由曲線ではなく、事前に定義されたいくつかのモード(上昇・下降・ループなど)だ。
数学的に記述すれば、それは 有限状態機械(finite state machine) に近い:
A(t)=step_function(pattern,t)
これはとても哲学的だ——
音は形作られるのではなく、「規則によって駆動される」ものであり、音を生み出す仕組みを設定しているに過ぎない。
AY自体にはほとんど「演算能力」という概念がない。それはDSP(デジタル信号処理器)ではない。
すべての高度な効果はCPUが「騙して」作り出している。
Amstrad CPC 464では、Z80 CPUが以下のことを担う:
- 周波数の高速変更(ビブラート)
- 音量の変更(フェードのシミュレート)
- 時間スライスによる擬似サンプリング
たとえばシンプルなビブラートを作りたい場合、実際には以下のような処理を実行している:
f(t)=f0+Δf⋅sin(ωt)
しかしAYはsin関数をサポートしない。
そのためルックアップテーブル(lookup table)やハードコードされた数値で近似する。
これが初期音楽プログラムの本質だ:
離散的なデータを使って連続した世界を装うこと。
もしレンズをZX Spectrumに移せば、事態はさらに極端になる。
初期のSpectrumにはまともな音源チップすらなく、ただ一つのbeeper(オンかオフかの出力)しかなかった。音はハードウェアが生成するのではなく、CPUが時間スライスで「騙して」作り出していた。信号を高速で切り替えることで、人間の耳に……
CPCは、限られた次元の中で音を配置する、構造的に厳密な作曲家のような存在だ。
一方でSpectrumは、計算と時間の錯覚によって音を「存在しているように見せる」呪術に近い。
ひとつは設計、もうひとつは欺瞞。
だが最終的には、どちらも音楽になる。
ここに優劣はない。あるのは方法論の違いだけだ。
思考を開き、Amstradのロジックでシンセサイザーを作るとしたら、それはどんなものになるだろうか。
キーボード上の数字キーと方向キーを切り出し、デュアル・デジタルチップとアナログノイズチップを組み合わせて、2.5チャンネルのシンセサイザーを設計した。
プロダクトとして見るなら、80年代から来た小さなサウンドトイのような存在に近い。
CPCの世界では、音は決して純粋な音楽ではない。
それは同時にロードプロセスであり、フィードバック信号であり、エラーの副産物でもある。
いま自分が設計しているこのマシンは、本質的にはその混乱した状態を複製しつつ、コントロールだけを人間の手に戻そうとする試みだ。
鍵盤設計が核心になる。
数字キーは分周式におけるN値だ。
押すという行為は「音を弾く」ことではなく、整数(あるいはパターン)を選択し、音を切り分けられた位置に落とすことに近い。
操作感は奇妙で、むしろ状態を切り替えている感覚に近い。
このとき方向キーは、時間を操作するレバーのように機能する(本質的にはピッチ)。
イベントの間隔を圧縮したり引き伸ばしたりすることで、システム全体は音楽というより、ひとつのプログラムが動作しているように見えてくる。
音は結果として現れる副産物であり、最初の目的ではない。
(ただし実際のところ、その副産物こそが目的でもある。)
黄ばんだゲーム用カセットをZX SpectrumやAmstrad CPC 464のテープレコーダーに差し込み、Playを押す。
磁気ヘッドが読み取るのは磁性の変化であり、それは電気信号に変換され、さらに0と1へとデコードされる。
その瞬間、80年代の家庭用コンピュータにおける、最も純粋な音の儀式が始まる。
1982年から1989年にかけて、カセットテープはこれらのマシンにとって真の生命線だった。
ハードディスクもUSBも存在せず、すべてのソフトウェアは安価なC-90カセットに依存していた。
ゲーム、ツール、ワープロ、自作BASICプログラム――すべてが30分の磁性層に詰め込まれていた。
CPCにはデータレコーダーが内蔵され、Spectrumは外付けだったが、原理は同じだ。
二進数のデータをアナログの音声パルスに変換する。
あの高周波の叫びやリズミカルなパルスは、工学的には単なるエンコード形式に過ぎない。
だが人間の知覚においては、すでにひとつの音の出来事となっている。
そこで境界は曖昧になる。
あなたはゲームをロードしていると同時に、ひとつの音を体験している。
重要なのは、カセットが「裸の伝送」であることだ。
エラーは補正されず、物理現象も隠されない。
あらゆる微細な変化が、そのままデータに入り込む。
速度はその最も直感的な例だ。
テープが速く回るか遅く回るかで、信号の時間構造は伸びたり縮んだりする。
コンピュータにとっては読み取りエラーでも、人間の耳にとってはピッチやリズムの変化になる。
つまり同じデータでも、速度次第でまったく異なる音の形態になる。
歪みはさらに直接的だ。
テープは劣化し、飽和し、干渉を受ける。
工学的にはノイズだが、それはランダムではなく、物理的な法則に従った変形だ。
信号は曖昧になり、0と1の境界は揺らぐ。
その不安定さが、逆に音に質感を与える。
だからこそカセットは自然と実験音楽の系譜へ接続される。
Pierre Schaefferの世代はすでにテープを素材として扱っていた。
切断、反転、速度変更。
本質的に彼らは録音していたのではなく、時間そのものを操作していた。
今日では、この音は実験音楽における「生きた化石」となっている。
Aphex Twinは1996年の『Richard D. James Album』で、Spectrumのロード音をそのままサンプリングし、《Peek 824545201》や《Cornish Acid》に組み込み、鋭いパルスをIDMの中核的テクスチャへと変換した。
Bandcampでは『CompZX - Spectrum Loading Sound Remix Project』のような作品があり、
アーティストたちはpilot toneを引き伸ばしてドローンにし、sync音を刻んでブレイクビートにし、エラー歪みを積み上げてノイズウォールを作っている。
より深い影響はglitch、noise、hauntologyの領域にある。
古いテープのデータパルスを極限まで加速させたり、ヘッドを汚して意図的に劣化させたり、現代のDAWでCPCのSpeedloadを再現し、低いpilotから高速のノイズへと変化させる。
20分に及ぶインダストリアル・アンビエント作品がそこから生まれる。
CPCの「Breaking Baud」デモはすでにノイズコミュニティの聖典となり、
Spectrumの偶発的なグリッチ(ロード失敗時の破砕された矩形波)は、proto-noiseの教科書とされている。
失敗そのものが音楽なのだ。
現代のカセット・カルチャー(noise、experimental、DIYレーベル)の復興も、
その多くがこれらのコンピュータ用テープへのオマージュだ。
それは単なるノスタルジーではなく、
「最も粗末なツールでも誰もが創作できる」という態度の継承である。
現在見られるテープ限定レーベル、手作業のパッケージ、
ライブで意図的に巻き戻してロード音を再生する行為——
そのすべては80年代の家庭用コンピュータから盗まれたDNAだ。
ハードウェアハッカーの中には、古いカセットデッキのヘッドを取り出し、
クレジットカードの磁気ストライプを直接読み取って「データ音」を再生し、
銀行情報を即興ノイズへと変換する者さえいる。
あのテープのビープ音は決して消えていない。
ただ舞台を変えただけだ。
イギリスの寝室にあった小さなテレビから、
今ではBandcampやMax/MSPのパッチへ。
カセットは80年代に、データが歌うことを教えた。
そして現代の実験音楽は、その時代へ歌い返している。
最も汚く、最も脆く、そして最も人間的な音で、
無菌的なデジタルの完璧さに抗うために。
—
あのテープのノイズ、あの粗い矩形波。
それは、いまだ完全には理解されていない言語のようなものだ。
Yagyu Ranzou
unfiltered 未過濾的
コメント
コメントを投稿