デジタルオーディオ

ウィキペディアから、無料の百科事典
ナビゲーションにジャンプ 検索にジャンプ
オーディオレベルはデジタルオーディオレコーダーに表示されます(Zoom H4n

デジタルオーディオは、デジタル形式で録音または変換されたサウンドの表現ですデジタルオーディオでは、オーディオ信号の音波は通常、連続シーケンスの数値サンプルとしてエンコードされます。たとえば、CDオーディオでは、サンプルは1秒間に44,100回取得され、それぞれが16ビットのサンプル深度を持ちます。デジタルオーディオは、デジタル形式でエンコードされたオーディオ信号を使用した録音および再生のテクノロジー全体の名前でもあります。1970年代から1980年代にかけてデジタルオーディオ技術が大幅に進歩した後、徐々に置き換えられました。1990年代と2000年代 のオーディオ工学レコード制作電気通信の多くの分野におけるアナログオーディオ技術

デジタルオーディオシステムでは、音を表すアナログ電気信号は、アナログ-デジタルコンバーター(ADC)を使用して、通常はパルス符号変調(PCM)を使用してデジタル信号に変換されます。このデジタル信号は、コンピューター、オーディオ再生マシン、およびその他のデジタルツールを使用して、記録、編集、変更、およびコピーできます。サウンドエンジニアがヘッドホンやスピーカーで録音を聴きたい場合(または消費者がデジタルサウンドファイルを聴きたい場合)、デジタル-アナログコンバーター(DAC)は逆のプロセスを実行し、デジタル信号を次のように変換します。アナログ信号は、オーディオパワーアンプを介して送信され、最終的にはスピーカー

デジタルオーディオシステムには、圧縮ストレージ処理、および伝送コンポーネントが含まれる場合があります。デジタル形式への変換により、オーディオ信号の便利な操作、保存、送信、および取得が可能になります。録音のコピーを作成すると生成損失が発生し、信号品質が低下するアナログオーディオとは異なり、デジタルオーディオでは、信号品質を低下させることなく、無限の数のコピーを作成できます。

概要

赤で、デジタルで、青で表された音波(サンプリングおよび4ビット量子化後)。

デジタルオーディオテクノロジーは、曲、楽器、ポッドキャスト、効果音、その他のサウンドの録音を含む、サウンドの録音、操作、大量生産、および配信に使用されます。最新のオンライン音楽配信は、デジタル録音とデータ圧縮に依存しています。音楽を物理的なオブジェクトとしてではなくデータファイルとして利用できるようになったことで、配布のコストが大幅に削減され、コピーの共有が容易になりました。[1]デジタルオーディオが登場する前は、音楽業界はレコードカセットテープの形で物理的なコピーを販売することで音楽を配布および販売していました次のようなデジタルオーディオおよびオンライン配信システムを使用iTunes、企業は消費者にデジタルサウンドファイルを販売し、消費者はインターネットを介してそれを受け取ります。SpotifyYoutubeなどの人気のあるストリーミングサービスは、デジタルファイルへの一時的なアクセスを提供し、現在、音楽消費の最も一般的な形式です[2]

アナログオーディオシステムは、マイクなどのトランスデューサーを使用して、音の物理的な波形をそれらの波形の電気的表現に変換します。次に、音は磁気テープなどのアナログ媒体に保存されるか、電話回線ラジオなどのアナログ媒体を介して送信されます。このプロセスは、再生のために逆になります。電気オーディオ信号が増幅され、スピーカーを介して物理波形に変換されますアナログオーディオは、その保存、変換、複製、および増幅を通じて、その基本的な波のような特性を保持します。

アナログオーディオ信号は、電子回路および関連デバイスの固有の特性により、ノイズや歪みの影響を受けやすくなっています。デジタルシステムの障害は、シンボルが別のシンボルとして誤って解釈されたり、シンボルのシーケンスを妨害したりするほど大きくない限り、エラーにはなりません。したがって、一般に、デジタル形式への変換とアナログへの変換の間にノイズや歪みが発生しない、完全にエラーのないデジタルオーディオシステムを使用することが可能です。

デジタルオーディオ信号は、信号の保存または送信で発生する可能性のあるエラーを修正するためにエンコードすることができます。チャネルコーディングとして知られるこの技術は、放送または記録されたデジタルシステムがビット精度を維持するために不可欠です。8〜14の変調は、オーディオコンパクトディスク(CD) に使用されるチャネルコードです。

変換プロセス

アナログ-デジタル-アナログ変換
そのソースから、ADC、デジタル処理、DACを経て、最後に再びサウンドとしてのサウンドのライフサイクル。

オーディオ信号がアナログの場合、デジタルオーディオシステムは、アナログ信号をデジタル信号に変換するADCから始まります。[注1] ADCは指定されたサンプリングレートで動作し、既知のビット解像度で変換します。たとえば、  CDオーディオのサンプリングレートは44.1 kHz (44,100サンプル/秒)で、ステレオチャネルごとに16ビットの解像度があります。ナイキスト周波数よりも高い周波数のオーディオ信号によって引き起こされるエイリアシング歪みを防ぐために、まだ帯域制限されていないアナログ信号は、変換前にアンチエイリアシングフィルターを通過する必要があります。(サンプリングレートの半分)。

デジタルオーディオ信号を保存または送信することができます。デジタルオーディオは、CD、デジタルオーディオプレーヤーハードドライブUSBフラッシュドライブ、またはその他のデジタルデータストレージデバイスに保存できます。デジタル信号は、デジタル信号処理によって変更される場合があり、フィルタリングされたり、効果が適用されたりする場合があります。アップサンプリングおよびダウンサンプリングを含むサンプルレート変換を使用して、異なるサンプリングレートでエンコードされた信号を処理前に共通のサンプリングレートに変更することができます。MP3などのオーディオデータ圧縮技術ファイルサイズを小さくするために、Advanced Audio CodingOgg Vorbis、またはFLACが一般的に使用されています。デジタルオーディオは、 AES3MADIなどのデジタルオーディオインターフェイスを介して伝送できます。デジタルオーディオは、 Audio over EthernetAudio over IP、またはその他のストリーミングメディア標準およびシステムを使用してネットワーク上で伝送できます。

再生するには、デジタルオーディオをDACでアナログ信号に変換し直す必要があります。ナイキスト-シャノンのサンプリング定理によれば、いくつかの実用的および理論的な制限がありますが、元のアナログ信号の帯域制限バージョンは、デジタル信号から正確に再構築できます。

歴史

コーディング

パルス符号変調(PCM)は、1937年に英国の科学者AlecReevesによって発明されました。[ 3] 1950年、BellLabsのC.Chapin Cutlerは、差動パルス符号変調(DPCM)[4]データ圧縮アルゴリズムに関する特許を申請しましたアダプティブDPCM(ADPCM)は、1973年にベル研究所でP. Cummiskey、 Nikil S. Jayant、 JamesL.Flanaganによって導入されました。 [5] [6]

知覚コーディングは、線形予測コーディング(LPC)を使用して、音声コーディングの圧縮に最初に使用されました。[7] LPCの最初の概念は、1966年の板倉文忠名古屋大学)と斉藤修三(日本電信電話の仕事にまでさかのぼります。 [8] 1970年代、ベル研究所のBishnuS.AtalManfredR.Schroeder人間の耳のマスキング特性を利用した知覚コーディングアルゴリズムである適応予測コーディング(APC)と呼ばれるLPCの形式を開発し、1980年代初頭にコード励起線形予測を採用しました。(CELP)アルゴリズム。[7]

1972年にNasirAhmedによって最初に提案された不可逆圧縮法である離散コサイン変換(DCT)コーディング[9] [10]は、 JP Princen、AW Johnson、およびABによって開発された修正離散コサイン変換(MDCT)の基礎を提供しました。1987年のブラッドリー。[11] MDCTは、 Dolby Digital(AC-3)、[12] MP3MPEG Layer III)、[13] [7] Advanced Audio Coding(AAC)などのほとんどのオーディオコーディング標準の基盤です。 Windows Media Audio(WMA)、およびVorbisOgg )。[12]

録音

PCMは、民間放送や録音で最初に使用されるずっと前から、電気通信アプリケーションで使用されていました。商用デジタル録音は、1960年代に、 NHK日本コロムビアおよびそれらのデノンブランドによって日本で開拓されました。最初の商用デジタル録音は1971年にリリースされました。[14]

BBCも1960年代にデジタルオーディオの実験を開始しました1970年代初頭までに、2チャンネルレコーダーを開発し、1972年には、放送センターをリモート送信機にリンクするデジタルオーディオ伝送システムを導入しました。[14]

米国で最初の16ビットPCM録音は、1976年にサンタフェオペラでトーマスストッカムサウンドストリームレコーダーで作成しました。サウンドストリームシステムの改良版は、1978年にTelarcによっていくつかの古典的な録音を作成するために使用されました。当時開発中の3Mデジタルマルチトラックレコーダーは、BBCテクノロジーに基づいていました。このマシンで録音された最初のオールデジタルアルバムは、1979年にYouDropまでのRyCooderBopでした。イギリスのレコードレーベルDecca1978年に独自の2トラックデジタルオーディオレコーダーの開発を開始し、1979年に最初のヨーロッパのデジタル録音をリリースしました。[14]

1980年代初頭にソニー/スチューダー( DASH)と三菱(ProDigi )によって製造された人気のあるプロのデジタルマルチトラックレコーダーは、主要なレコード会社によるデジタルレコーディングの受け入れをもたらしました。これらのフォーマットのマシンには、1/4 "、1/2"、または1"幅のオープンリールテープを使用する独自のトランスポートも組み込まれており、オーディオデータはマルチを使用してテープに録音されます。 -固定テープヘッドを追跡します。PCMアダプターを使用すると、従来のNTCSまたはPALビデオテープレコーダーでステレオデジタルオーディオを録音できます。

1982年に発売されたCDは、消費者にデジタルオーディオを普及させました。[14]

ADATは1990年代初頭に利用可能になり、S-VHSカセットで8トラックの44.1または48 kHzの録音が可能になり、DTRSはHi8テープで同様の機能を実行しました。

ProDigiやDASHのようなフォーマットはSDATS tationary -head D igital A udio T ape)フォーマットと呼ばれ、PCMアダプターベースのシステムやDATのようなフォーマットはRDAT( Rotating - head D igital A udio T ape)形式は、記録のヘリカルスキャンプロセスによるものです。

DATカセットと同様に、ProDigiおよびDASHマシンも、必須の44.1 kHzサンプリングレートに対応しましたが、すべてのマシンで48 kHz、最終的には96kHzサンプリングレートにも対応しました。それらは、より高速なテープ速度、金属配合テープと組み合わせて使用​​されるより狭いヘッドギャップ、および複数の並列にデータを分散することの組み合わせによって、デジタル録音の帯域幅(周波数範囲)の要求を満たすことができない典型的なアナログレコーダーを引き起こした問題を克服しましたトラック。

アナログシステムとは異なり、最新のデジタルオーディオワークステーションオーディオインターフェイスでは、コンピュータが一度に効果的に実行できる限り多くの異なるサンプリングレートで多くのチャンネルを使用できます。これにより、アナログギアでは困難な大規模なプロジェクトで、マルチトラックレコーディングとミキシングがはるかに簡単になります。

テレフォニー

PCMデジタルテレフォニーの急速な開発と幅広い採用は、1970年代初頭に開発された金属酸化物半導体(MOS)スイッチトキャパシタ(SC)回路技術によって可能になりました。[15]これは、1970年代後半にPCMコーデックフィルターチップの開発につながりました。[15] [16] 1980年にDavidA.HodgesとWCBlackによって開発されたシリコンゲート CMOS(相補型MOS)PCMコーデックフィルタチップ[15]は、それ以来、デジタルテレフォニーの業界標準となっています。[15] [16] 1990年代まで公衆交換電話網(PSTN)は、VLSI(非常に大規模な統合)CMOS PCMコーデックフィルターで大部分がデジタルおり電話交換ユーザーエンドモデム、および統合サービスデジタルネットワーク(ISDN)、コードレス電話および携帯電話[16]

テクノロジー

ソニーデジタルオーディオテープレコーダーPCM-7030

デジタルオーディオは、オーディオのブロードキャストに使用されます。標準技術には、デジタルオーディオ放送(DAB)、デジタルラジオモンディアル(DRM)、HDラジオインバンドオンチャネル(IBOC)が含まれます。

録音アプリケーションのデジタルオーディオは、CD、デジタルオーディオテープ(DAT)、デジタルコンパクトカセット(DCC)、ミニディスクなどのオーディオ固有のテクノロジに保存されますデジタルオーディオは、標準のオーディオファイル形式で保存され、ハードディスクレコーダーBlu-ray、またはDVD-Audioに保存されます。ファイルは、スマートフォン、コンピューター、またはMP3プレーヤーで再生できます。デジタルオーディオの解像度は、サンプル深度で測定されます。ほとんどのデジタルオーディオ形式は、16ビット、24ビット、および32ビットのいずれかのサンプル深度を使用します。デジタルオーディオの解像度はサンプル深度で測定されますほとんどのデジタルオーディオ形式は、16ビット、24ビット、および32ビットのいずれかのサンプル深度を使用します。

インターフェイス

FocusriteUSBインターフェース

デジタルオーディオ固有のインターフェイスには、次のものがあります。

  • Bluetooth経由のA2DP
  • PCマザーボード上の集積回路間のAC'97(Audio Codec 1997)インターフェース
  • ADATライトパイプインターフェース
  • プロのオーディオ機器で一般的なXLRコネクタを備えたAES3インターフェース
  • AES47-非同期転送モードネットワークを介したプロフェッショナルなAES3スタイルのデジタルオーディオ
  • Intel HighDefinitionAudio-AC'97の最新の代替品
  • 家庭用電化製品の集積回路間のI²S(Inter-ICサウンド)インターフェース
  • MADI(マルチチャンネルオーディオデジタルインターフェース)
  • MIDI-機器データを伝送するための低帯域幅の相互接続。音を運ぶことはできませんが、非リアルタイムでデジタルサンプルデータを運ぶことができます
  • S / PDIF-同軸ケーブルまたはTOSLINKのいずれかを介して、民生用オーディオ機器で一般的で、AES3から派生
  • TDIFD-subケーブルを備えたTASCAM独自のフォーマット

HDMIDisplayPortなど、いくつかのインターフェイスはデジタルビデオとオーディオを一緒に伝送するように設計されています一部のインターフェースは、MIDIサポートとXLRおよびTRSアナログポートを提供します。

パーソナルコンピュータの場合USBおよびIEEE 1394には、リアルタイムのデジタルオーディオを配信するための機能があります。USBインターフェースは、サイズが小さく使いやすいため、独立したオーディオエンジニアやプロデューサーの間でますます人気が高まっています。プロのアーキテクチャまたはインストールアプリケーションでは、イーサネットプロトコルおよびインターフェイスを介した多くのオーディオが存在します。放送では、より一般的なAudiooverIPネットワークテクノロジーが好まれます。テレフォニーでは、 Voice over IPは、音声通信用のデジタルオーディオのネットワークインターフェイスとして使用されます。

も参照してください

メモ

  1. ^ デジタル合成によって作成されたものなど、一部のオーディオ信号は完全にデジタルドメインで発生します。この場合、アナログからデジタルへの変換は行われません。

参照

  1. ^ Janssens、Jelle; Stijn Vandaele; トムヴァンデルベケン(2009)。「(その)ライン上の音楽業界?デジタル時代の音楽著作権侵害を生き残る」。European Journal of Crime、Criminal Law andCriminalJustice77(96):77–96。土井10.1163/157181709X429105hdl1854/LU-608677
  2. ^ Liikkanen、ラッシーA .; Åman、Pirkka(2016年5月)。「シャッフルサービス:デジタル音楽との相互作用における現在の傾向」コンピューターとの対話28(3):352–371。土井10.1093 / iwc/iwv004ISSN0953-5438_ 
  3. ^ Genius Unrecognized、BBC、2011-03-27、2011-03-30取得
  4. ^ 米国特許2605361、C。Chapin Cutler、「通信信号の微分量子化」、1952-07-29発行 
  5. ^ P. Cummiskey、Nikil S. Jayant、およびJL Flanagan、「音声の差分PCMコーディングにおける適応量子化」、 BellSyst。Tech。J.、vol。52、pp。1105-1118、1973年9月
  6. ^ Cummiskey、P .; ジャヤント、ニキルS .; フラナガン、JL(1973)。「音声の差分PCM符号化における適応量子化」。ベルシステムテクニカルジャーナル52(7):1105–1118。土井10.1002/j.1538-7305.1973.tb02007.xISSN0005-8580_ 
  7. ^ a b c Schroeder、Manfred R.(2014)。「ベル研究所」音響、情報、およびコミュニケーション:マンフレッドR.シュローダーに敬意を表して記念巻スプリンガー。p。388. ISBN 9783319056609
  8. ^ グレイ、ロバートM.(2010)。「パケットネットワークでのリアルタイムデジタル音声の歴史:線形予測符号化とインターネットプロトコルのパートII」(PDF)見つかった。トレンドシグナルプロセス3(4):203–303。土井10.1561/200000093ISSN1932-8346_  
  9. ^ Ahmed、Nasir(1991年1月)。「離散コサイン変換をどうやって思いついたのか」デジタル信号処理1(1):4–5。土井10.1016 / 1051-2004(91)90086-Z
  10. ^ ナシル・アフマド; T.ナタラジャン; カミセティ・ラマモハン・ラオ(1974年1月)。「離散コサイン変換」(PDF)コンピューターでのIEEEトランザクションC-23(1):90–93。土井10.1109/TC.1974.223784
  11. ^ JP Princen、AW Johnson und AB Bradley:時間領域エイリアシングキャンセルに基づくフィルターバンク設計を使用したサブバンド/変換コーディング、IEEEProc。国際 音響、音声、および信号処理に関する会議(ICASSP)、2161〜2164、1987。
  12. ^ a b Luo、Fa-Long(2008)。モバイルマルチメディア放送規格:技術と実践シュプリンガーサイエンス&ビジネスメディアp。590. ISBN 9780387782638
  13. ^ ガッカート、ジョン(2012年春)。「MP3オーディオ圧縮でのFFTとMDCTの使用」(PDF)ユタ大学2019年7月14日取得
  14. ^ a b c d Fine、Thomas(2008)。バリーR.アッシュポール(編)。「商用デジタル録音の夜明け」(PDF)ARSCジャーナル2010年5月2日取得
  15. ^ a b c d Allstot、David J.(2016)。「スイッチトキャパシタフィルター」(PDF)マロベルティでは、フランコ。デイビス、アンソニーC.(編)。回路とシステムの短い歴史:グリーン、モバイル、パーベイシブネットワーキングからビッグデータコンピューティングまでIEEE Circuits andSystemsSocietypp。105–110。ISBN  9788793609860
  16. ^ a b c フロイド、マイケルD .; ヒルマン、ガースD.(2018年10月8日)[1stpub。2000]。「パルス符号変調コーデック-フィルタ」コミュニケーションハンドブック(第2版)。CRCプレスpp。26–1、26–2、26–3。ISBN 9781420041163

さらに読む

  • Borwick、John、ed。、1994:Sound Recording Practice(Oxford:Oxford University Press)
  • Bosi、Marina、およびGoldberg、Richard E.、2003年:デジタルオーディオコーディングおよび標準の概要(Springer)
  • Ifeachor、Emmanuel C.、and Jervis、Barrie W.、2002:Digital Signal Processing:A Practical Approach(Harlow、England:Pearson Education Limited)
  • Rabiner、Lawrence R.、およびGold、Bernard、1975年:デジタル信号処理の理論と応用(ニュージャージー州エングルウッドクリフ:Prentice-Hall、Inc.)
  • ワトキンソン、ジョン、1994年:デジタルオーディオの芸術(オックスフォード:フォーカルプレス)

外部リンク

この記事を聞く9
音声ウィキペディアアイコン
このオーディオファイルは、2016年3月12日付けのこの記事の改訂版から作成されたものであり、その後の編集は反映されていません。 (2016-03-12