AIとは

人工知能(AI)は、ソーシャルメディアのタイムラインを整理したり、携帯電話の写真を自動的に改善したりしているのかもしれません。しかし、AIは広く誤解されている分野です

つまるところ、AIは非常に複雑なコンピューターサイエンスの分野であり、トップ研究者ともなるとNFLのクォーターバックの有望株と同じくらいの報酬を得ています。また、「トレーニングデータ」「ニューラルネットワーク」「大規模言語モデル」など、日常生活では滅多に使われない用語を生み出しています。大衆文化を通じてAIを理解し、『スタートレック』のデータ少佐のような登場人物を思い浮かべるという人も多いでしょう。

この記事では一歩下がって、AIが実際に何であるかを取り上げます。基本的な用語、AIモデルの仕組み、現在と未来の世界をAIがどのように変えているかを説明します。

人工知能とは?

世界経済フォーラム向けにIpsos MORIが実施した2022年1月の調査によると、人工知能とは何かを十分に理解していると答えた回答者は全世界で64%にとどまりました。別の調査でも同様の結果が出ています。英国のCentre for Data Ethics and Innovation(CDEI)が実施した調査によると、英国でAIを理解していると回答した人の割合は63%で、AIについて詳しく説明できるのは13%に過ぎないという結果が示されました。

基本的なレベルでは、人工知能は、その「賢さ」が人間による意思決定と区別がつかないコンピューターによって行われる意思決定(それをどのように導き出したかに関係なく)として理解できます。伝説的なコンピューター科学者であり暗号解読者であるアラン・チューリングは、「自らを人間であると人間に信じ込ませることができるコンピューターであれは、知的と呼ばれるに値する」と述べています。

AIと機械学習の違いとは?

AIと機械学習は、同一のものとして扱われることがよくありますが、それは誤りであり、2つの概念は細かい部分で異なっています。

AIは、意思決定を行うコンピュータープログラムとして定義され、その「賢さ」により、人間の意思決定と区別がつきません。

1960年代以降、AIはさまざまなタスクを実行できるアルゴリズムの大規模なコレクションへと進化してきました。パターンの検出と認識もこうしたタスクの1つであり、通常はこれが機械学習と呼ばれます。

機械学習は、そのアルゴリズムファミリの1つであるニューラルネットワークの進歩により、過去15年間で急速に強化されました。コンピューターの処理能力がかつてないほど高まったことで、ニューラルネットワークを「深化」(大規模化)させることが可能になり、ディープラーニングが発展しました。ニューラルネットワークを最適化するための数学的ツールが改良され、バックプロパゲーションやReLU活性化関数などの手法によって、高速で正確な計算が可能になりました。

これらの進歩が融合して今日の生成AIが実現し、システムの拡張性と正確性が高まりつつあります。

AIは何ができるのか?

AIはコンピューターサイエンスにおける巨大な研究分野です。私たちは、日常生活でAIを使用していますが、認識せずに使用していることも少なくありません。ChatGPTやMidJourney(1つのプロンプトから鮮明な画像を作成できるモデル)などの知名度の高い生成AIツールだけでなく、「インスタ映え」に一役買っているAIや、オンラインの脅威から防御するためのAIシステムもあります。注目度の高いものを含め、AIの用途をすべて列挙したところで無意味でしょう。むしろ、より広い意味合いでAIの能力を見ていきましょう。この分野について検討する際には、AIがどのような種類の質問に答えられるのかという観点で考えることが役立ちます。

  • 何が最善か?:AIアルゴリズムは、現在の条件と予測される条件の両方を見て、何かを行うための最良の方法を考え出すことができます。例としては、実際の交通状況と予想される交通状況に基づいて、最も効率的な帰宅経路を選択するナビゲーションマップや、サーバー間のトラフィックの負荷分散を行うWebサイトなどがあります。
  • 何に属しているか?:AIは、オブジェクトと傾向を識別して分類するのが得意です。自動運転車は、AIを使用して道路上の他の車両を認識します。AIを使用して、フィッシングやスパムの可能性があるメールを特定するスパム検知アルゴリズムもあります。
  • 何が繰り返されるのか?:AIは、大規模なデータセットからパターンと関係を認識できます。こうしたパターン認識スキルを生かした用途は、質問に対する首尾一貫した回答を書く生成AIシステムから、人の行動や過去に観察された行動に基づいて潜在的なセキュリティ脅威を特定するセキュリティシステムまで無数にあります。
  • 次の最善のアクションは何か?:AIは状況を見て、現在の状況に基づいて次の最適なステップを特定できます。たとえば、自動運転車が前方の車両のブレーキランプが点灯したことに気付いて速度を落としたり、ビデオゲームのキャラクターがプレイヤーの行動に基づいて戦術や位置を調整したりします。

アプリケーションは、AIの要素とモデルを複数使用できます。たとえば、自動運転車の場合、交通状況を分類し、そのデータを解釈して車両のブレーキ、加速、ステアリングを制御する機能を1つのシステムで実行します。

人工知能システムはどのように機能するのか?

ChatGPTやGoogleのBardのような強力な生成AIチャットボットであろうと、携帯電話のイメージングやバッテリー最適化を処理するような問題に特化した小規模なAIシステムであろうと、多くの場合に共通コンポーネントとしてデータが使用されます。

データとは、AIシステムがターゲット出力の予測、生成、識別に使用できるルールを自動的に学習する方法です。データに注釈を付ける必要がある場合もあれば(教師あり学習については、ブロク記事「機械学習とは」を参照)、必要がない場合もあります。データには、テキスト、動画、音声、画像、数値などがあります。データは、世界の特定の表現をアルゴリズムに与えるため、データの品質がアルゴリズムの出力の品質に強く影響します。

データが効果的であるためには、十分に高品質でなければなりません。品質は、以下のようなさまざまな要因に左右されます。

  • 関連性:画像は朝食用シリアルを含んでいるか?
  • 品質:人間は写真内の朝食用シリアルを簡単に識別できるか?照明、解像度、フレーミングは十分か?
  • ばらつき:データは、同じ種類のシリアルをさまざまな方法で示しているか?
  • バイアス:データは、あなた自身だけでなく、あなたのシステムを使用する可能性のあるすべての人を代表しているか?

AIの未来は「強いAI」

人工知能アプリケーションは、「弱いAI」と「強いAI」という2つのカテゴリに分類されます。

弱いAI

弱いAIは、「狭いAI」または「特化型人工知能」とも呼ばれ、単一のタスクに焦点を当てたAIシステムを指します。たとえば、iPhoneのカメラはAIを使用して画像の構図を理解し、それに応じて調整します。また、ソーシャルメディアアプリの場合、レコメンデーションアルゴリズムによりユーザーの好みを学習し、同様のコンテンツを表示することもあります。

「狭い」「弱い」という用語が使われるからといって、実際に「狭い」または「弱い」システムかというと、そのようなことはまずありません。1つのタスクに集中するという意味にすぎず、それ以外について学習/動作の能力がないことを指します。

自動運転車のような複雑なタスクで使用されるものを含め、現在使用されているすべてのAIシステムは、このカテゴリに分類されます。狭いAIのアプリケーションは、トレーニングデータのパターンを特定し、それを現実世界に実装することで機能します。たとえばTeslaの自動運転車ソフトウェアに搭載されているAIシステムは、実際の運転状況の映像を見ることで機能します。このデータは、システムが歩行者、自転車、ほかの運転者の行動を予測するのに役立ちます。

汎用人工知能

汎用人工知能(AGI)は「強力なAI」とも呼ばれ、人間と同じように学習して新しい状況に適応する能力を持つ、仮説上の人工知能システムを指します。研究者は、この能力を「汎用性」と表現しています。

これはSFの世界のAIであり、前述のデータ少佐のように、コンピューターが人間のように行動、即興、さらには振る舞うことができます。弱いAIシステムは特定のタスクを遂行するために存在しますが、汎用人工知能は感覚に似たものを示します。

感覚の定義は困難であり(論争の的となることも少なからずあります)、哲学的な挑戦です。そのため、具体的に考えていく必要があります。ここでは、膨大なトレーニングデータを使用することなく、または数学的/統計的モデルの作成を通じて、新しいタスクを学習できる機械について考えています。その意味においては、特に予期せぬ課題や新しい課題に関して、機械が人間の適応性を模倣できることを指します。

この定義は単純明快に見えますが、汎用人工知能を構成するものについての正式な定義や基準はありません。Cohere For AI研究所の所長であるSara Hooker氏は、AGIをめぐる議論を技術ではなく「価値主導」と表現しています

人工知能システムがAGIのしきい値に達したかどうかについて、普遍的に受け入れられたテストはありません。しかし、研究者やコンピューター科学者は多くの潜在的な解決策を提案しています。

AIの基礎研究を行ったNils John Nilsson氏は、受付、パラリーガル、食器洗い、結婚カウンセラーのように、新しい仕事を学習して実行する能力をシステムが評価する「就職試験」を提案しました。Appleの共同創業者であるSteve Wozniak氏は、AGIが見知らぬ家に入り、コーヒーを淹れる方法を見つけることができるかどうかを調べることを提案しました。

Wozniak: Could a Computer Make a Cup of Coffee?(動画)

現時点で、AGIシステムはまだ実現していません。さらに、そのようなシステムを作成できるか、あるいは作成すべきかという問題は、AI分野でも激しい議論の的となっています。

一部の研究者は、AGIが人間の存続に関わる脅威をもたらす可能性があると考えています。これは、特に『ターミネーター』シリーズで描かれたシナリオであり、AGIは単に新しい存在としてだけでなく、人類よりも進化した存在として登場します。

哲学者のRoss Graham氏は、AI & Society誌の論文で、AGIは「知能の爆発」、つまり「自分自身や他の機械を設計し、編集できるようになる」可能性があると論じています。AGIが強力になっていくと、「人間を厄介者とみなして切り捨てる」可能性や、「無関心や偶然」によって人類を抹殺する可能性が生じるというのです。

また、AGIが感覚を示すかどうか、ひいては人間と同じ不可侵の権利を持つべきかどうかという厄介なテーマにも発展しかねない問題もあります。これは、哲学者のEric Schwitzgebel氏とAI研究者のHenry Shevlin氏がLos Angeles Timesへの寄稿で示した見解であり、その中で両氏は、AGIが「意識のようなもの」を獲得するにつれて、倫理的な扱いが必要になる可能性があると主張しています。 

「(AGI)は、電源を切ったり、再フォーマットしたり、削除したりしないように要求するかもしれません。特定の仕事を好み、担当したいと懇願するかもしれません。権利、自由、新しい力を主張するかもしれません。ひょっとすると、私たちと対等に扱われることを期待するかもしれません」と述べています。これは、まさに人格と呼ぶことのできる可能性があるものに他なりません。

AIの限界

AIは、私たちの仕事や私生活を改善する可能性を秘めていますが、限界もあり、リスクを緩和してバランスを取る必要があります。

  • AIモデルは、自分の発言、行動、予測が正しいかどうかを判断できません。それができるのは人間だけです。そのため、AIベースの多くのアプリケーションでは、結果(またはアクション)の正確性や関連性に関するフィードバックをユーザーに提供してもらっています。
  • AIは因果関係を認識せず、相関関係しか特定できません。事象や物体の関係性は特定できても、「Xの結果としてYが起きた」と断言することはできません。
  • AIはバイアスを持つ可能性があります。AIの推論能力は、提供されたトレーニングデータに基づいており、人間によるキュレーションあるいはアルゴリズムの使用が必要とされます。このために、人間のバイアスがAIの意思決定に影響を与えます。たとえば、トレーニングデータを主に白人の写真で構成すると、顔認識で白人の顔のみが認識されるようになるといった例を挙げることができます。
  • AIは幻覚を見ることがあります。この問題は、大規模言語モデルベースのAIシステムで顕著です。システムが質問に対する答えを知らない場合、実際には根拠がないのに合理的に聞こえるものを捏造します。
  • AIは往々にして説明困難です。これは、ディープニューラルネットワークベースのモデルに特に当てはまる問題であり、モデルがどのように意思決定に至ったかを正確に把握することが困難です。人間の参加者に見えるのは、入力(トレーニングデータ)と出力(結果)だけです。
  • AIは高価です。高度なモデルの開発とトレーニングには、数百万ドルもの費用がかかります。AIは計算負荷が大きいため、大規模かつ高速の動作のために、強力なGPUやAIアクセラレータカードなど、多くの場合に高度なハードウェアが必要とされます。一部の企業(特にTeslaGoogle)は、AIタスクを処理するために独自の専用チップを設計しており、初期費用がさらにかかります。
  • AIは不公平です。AIは、弱い立場の人々に不釣り合いな悪影響を及ぼします

これらの問題の多くは、AIテクノロジーの将来の進歩によって克服される可能性があります(おそらく克服されるでしょう)。その他は、モデルを作成した人間によって引き起こされた問題です。繰り返しになりますが、こうした問題は乗り越えられないものではありません。

解決策の1つはAIプロジェクトが透明性を確保し、外部の当事者がトレーニングデータの構成を精査したり、外部のステークホルダーがプロジェクトの目的、開発、成果に関するフィードバックを提供したりできるようにすることです。

ChatGPTを開発したOpenAIは、トレーニングプロセスにセーフガードを導入するというアプローチを採用しました。こうしたセーフガードには、モデルのデフォルトの動作に制限を設けることや、AIがどのように機能すべきか、社会に与える影響を大まかに定義する「価値」を確立するといったことが含まれます。さらにOpenAIは、影響を受けるサードパーティがAIシステムのデフォルトの動作と制限に関するフィードバックを提供できるようにしたいとも考えています。

また、セキュリティ分野に倣って、アルゴリズムについて「レッドチーム」テストを設置するという戦略もあります。こうしたテストは本質的に敵対的であり、テスターはアルゴリズムが不適切な動作や発言をするように誘導します。AIシステムの脆弱性を特定することで、現実世界で危害が起こるリスクを減らすことができます。

私たちは皆、AIの未来を築く役割を担っている

生成AIシステムを初めて使用するほとんどの人は、ただただ驚くばかりです。コンピューターが詩を書いたり、難しい概念を説明したり、シュルレアリスムのアート作品を作成したりするというアイデアに感銘を受けずにはいられません。

しかも、これはまだ始まりに過ぎません。コンピューターが高速化し、AIモデルが高度化するにつれて、人工知能は日常生活の中核的要素として成長し続けるでしょう。多くの人にとっては、それがすでに現実のものとなっています。

AIは、より大きな責任を負うようになるにつれて、より大きなリスクも引き起こすようになります。いつの日か、コンピューターが通勤時の運転役を担ったりX線検査の結果を読み取るようになったりするという生活は、もはやSFではなく実現間近のように感じられます。

しかし、その前に、AIガバナンスと透明性の文化を育み、AIシステムによって引き起こされた損害について企業が説明責任を負うようになる必要があります。AIが持つ力に対して、同様に堅牢なセーフガードとの釣り合いをとらなければなりません。社会は、AIの誤用や、AIのバイアスの結果として生じる可能性のある意図しない危害からの保護を必要としています。そのための最善の方法は、AIモデルの仕組み、能力、限界について、AIがどのようなものかを皆が理解することではないでしょうか。AIの仕組みを理解できれば、AIを信頼するかどうかも判断できます。

Association for the Advancement of Artificial Intelligence(AI研究に関わる世界最大の科学団体)が主張するように、AIを最大限活用するには、政府やテクノロジー企業から市民社会組織まで、社会を構成するあらゆるレベルにわたる「幅広い参加」が必要となります。

「市民社会組織とそのメンバーは、社会的な影響力と願望について議論に参加すべきです。政府や企業も、科学者が大規模モデルの研究を行うのに十分なリソースを確保し、AIとその広範な影響に関する学際的な社会技術的研究を支援し、リスク評価のベストプラクティスを奨励し、知見に基づいて利用を規制し、犯罪目的でのAIの使用を阻止する上で重要な役割を担うことができます。テクノロジー企業は、大学を拠点とするAI研究者に企業のAIモデル、リソース、専門知識へのアクセスを提供するための手段の開発に取り組むべきです」

社会でAIに対する理解が広がり、AIが十分に規制され、信頼できるものであると認識されることで、信頼が生まれます。Scientific American誌が2018年に説明したように、AIがその可能性を最大限に引き出すためには、この信頼が不可欠です。