インサイダーブリーフ
- Google Quantum AIの新しい理論的研究は、データがガウス分布のような自然なパターンに従っている場合、Quantum Computersが古典的なアルゴリズムよりも指数関数的に速く学習できることを示しています。
- 研究者は、機械学習で一般的な関数タイプである「周期ニューロン」の学習における古典的な勾配ベースの方法よりも優れた量子アルゴリズムを開発しました。
- 調査結果は理論的な枠組みに依存しており、現在のハードウェアの準備はまだ実用的ではない特別な量子状態を使用する必要があります。
Google Quantum AIの新しい理論的研究では、Quantum Computersがいつか特定の種類のニューラルネットワークが古典的なマシンよりもはるかに効率的に学習できる方法を概説しています。
に投稿された研究 Google Quantum AIの科学者であるLaura Lewis、Dar Gilboa、Jarrod McCleanのArxivおよび著者、量子アルゴリズムは、「周期ニューロン」を学習する際に古典的な勾配ベースの方法よりも指数関数的な利点を持つ可能性があることを示しています。これは、ニューラルネットワークで使用される特定の数学機能です。この利点は、現実世界の問題に頻繁に登場するガウスやロジスティクスなどの自然で不均一な分布からデータが描かれている場合でも保持されます。
この作業は、量子機械が機械学習の古典的な機械をどのように上回るかを探る、増え続ける文献に基づいています。しかし、均一なデータ分布やバイナリ関数などの理想化または合成の状況に焦点を当てた以前の多くの論文とは異なり、この研究は実際のシナリオに近いものです。これは、古典的な学習が困難であることが知られている状況で、量子法を使用して、継続的で実質的に価値のある関数を調べる最初の1つです。

これは理論的な結果です。Quantum Computerがアルゴリズムを実行したことはなく、この研究では今日の実用的な量子速度が請求されていません。代わりに、量子機械が学習効率に大幅な向上を提供できる条件下で、詳細なロードマップを表示します。
信号処理と機械学習
前述のように、紙の中心には、周期的なニューロンとして知られる関数があります。これらの関数は、入力ベクトルを取り、線形変換を適用し、コサイン関数またはコサイン波の組み合わせを介して結果をラップします。このような周期的な活性化は、シグナル処理や、物理学に基づいたモデルや生成AIを含む機械学習の最近の進歩に使用されます。著者は、入力データが特定の自然源から来る場合、古典的なアルゴリズムがこれらの機能を学習するのに苦労していることを示しています。
難易度の1つの理由は、「フーリエスパース」と呼ばれる数学的な問題です。簡単に言えば、ガウスベルカーブのような一部の分布は、エネルギーのほとんどを低周波成分に集中させます。これが起こると、古典的なグラデーションベースの学習方法は、データの信号を効率的にピックアップすることはできません。目的関数はほぼフラットになり、精度を向上させるためにどの方向に移動するかを判断するのが難しくなります。この現象は、最適化において「不毛のプラトー」と呼ばれることもあります。
研究者は、この硬度を証明する以前の古典的な結果に基づいて構築されています。特に、彼らは、古典的なニューラルネットワークがガウス分散入力から定期的なニューロンを学習するために指数関数的に多くのステップを必要とすることを示す以前の発見を適応させます。新しい論文は、この議論のラインを強化し、ミックスに量子理論を追加します。
フーリエスペースを活用します
対照的に、量子機械は、フーリエ空間の構造を直接活用できます。このペーパーは、Quantum Statistical Query(QSQ)学習と呼ばれるモデルを使用してこれを行う方法を示しています。これは、アルゴリズムが特定の観測可能性(データの関数)の期待を要求できる制限付き設定ですが、完全なデータは直接は表示されません。完全な量子アクセスよりも弱いですが、それでも干渉やエンタングルメントなどの量子効果を使用できます。
このモデルを使用して、著者は2部構成のアルゴリズムを設計します。まず、量子アルゴリズムは、量子フーリエ変換の変更された形式(量子コンピューターのコア機能)を使用して、関数の隠された期間を見つけます。このステップは、周期ニューロンを定義する未知の重量ベクトルを識別します。 2番目の部分では、Cosineの組み合わせの残りのパラメーターを学習するために、古典的な勾配降下を適用します。このアルゴリズムは、古典学習者の指数コストと比較して、多項式数のステップのみを必要とすることが示されています。
今後の技術的な課題
研究者は、いくつかの技術的課題に注意深く対処しています。 1つは、量子コンピューターで使用するために、実際のデータをデジタル形式に離散化する必要があります。これを配置する別の方法:実際の数値をデジタルチャンクに変換する必要があり、量子コンピューターがそれらを処理できるようにする必要があります。しかし、素朴な離散化は周期的な構造を失う可能性があり、適切な信号を検出することが不可能になります。著者らは、擬似過去の離散化を設計することにより、これを解決します。これは、量子アルゴリズムがそれを検出するのに十分な期間に近似します。
また、データの非整数期間を検出するために、Hallgrenのアルゴリズムと呼ばれる量子数理論からアルゴリズムを適応させます。 Hallgrenの方法はもともと均一な分布のためにのみ機能しましたが、著者は、分散が十分に大きい限り、ガウスや物流などの「十分に平坦な」不均一な分布で動作するように一般化します。
進捗状況にもかかわらず、この研究はすべての考えられる学習方法の量子的利点を証明していません。古典的な硬度の結果は、勾配ベースのアルゴリズムと特定の統計クエリモデルにのみ適用されます。著者は、一般的な古典学習者をカバーするより強力な結果が未解決の問題のままであることを認めています。
この研究では、必要な量子例の状態を準備する方法に関する実際的な質問も提起しています。これらは、データ分布と学習されている関数に関する情報をエンコードする特別な量子状態です。場合によっては、これらの状態は、特にターゲット関数自体が不明である場合、機械学習の一般的なシナリオである場合、作成が困難です。著者は、回避策について説明します。量子学習を使用して、訓練されたニューラルネットワークなどの既知の複雑な機能から単純なモデルを抽出します。これは、解釈性や物理システムのエミュレーターの構築に役立ちます。
この研究では、即時の申請を主張していません。今日の量子コンピューターは、これらのアルゴリズムを大規模に実装するには小さすぎてうるさいです。しかし、このペーパーは、特に隠れた周期性の構造化された問題で、量子学習者が古典的なものをいつ、どのように上回ることができるかを特定するための厳密なフレームワークを提供します。
将来の作業は、この利点が保持する分布のクラスを拡大し、コサインを超えた周期機能を一般化し、必要な量子状態を準備するためのより実用的な方法を探ることに焦点を当てるかもしれません。著者はまた、不均一な分布のための新しい期間発見アルゴリズムが機械学習を超えて使用する可能性があることを示唆しています。