最新のインサイト,

ChatGPT及びAIガバナンスの重要性

日本 | 日本
Current site :    日本   |   日本
オーストラリア
中国
中国香港特別行政区
日本
シンガポール
米国
グローバル

ChatGPT: 大きな変革を起こすか?

OpenAI(オープンAI)が開発した人工知能を使ったチャットボットのChatGPT(チャットGPT)は、歴史上最も成長が速い消費者向け製品となり、ローンチからわずか2ヶ月で月間アクティブユーザーが1億人に達している。教育、メディア、マーケティング業界に衝撃を与えており、ChatGPTの出現により、ホワイトカラーの労働者の失業への懸念も高まっている。Microsoftは早速、ChatGPTの技術をBingチャットボットに取り入れ、検索エンジンとしてトップシェアを誇るGoogleに挑戦する姿勢を見せている。今後もChatGPTが多くの製品に取り入れられることで、次世代の大きなプラットフォームになり、インターネット全体に変革を起こす可能性があると複数のAI専門家が予想している。

ChatGPTは、ビジネスにおいて、新たな契機となり、生産性向上、コスト削減及び顧客体験の向上につながることが期待されている。一方で、ChatGPTには複数の制限があり、その利用にはリスクが伴うため、注意して使用する必要がある。

この記事では、団体がChatGPTの長所を最大限活かし、同時に、その使用に伴うリスクに適切に対処するための術を紹介する。

本記事の概要

  • ChatGPTは、人工知能を使用するチャットボットで、会話のやり取り、人間らしいテキストの生成、さらにはコードの生成まで、多様なタスクをこなす。
  • ChatGPTを含む大規模言語モデル(Large Language Model 、以下「LLM」と呼ぶ。)は、自然言語処理の分野で顕著な進歩を示し、従来のAIツールよりも優れた能力を発揮している。
  • このようにChatGPTは大きな可能性を秘めている一方で、正しく使用しなければ、好ましくない結果につながるため一定の制限がある。
  • 不適切な使用を防ぐために、組織ではChatGPTの利用規程を策定し、従業員に対して利用規程及びChatGPTの複数の制限についての研修を行うことが重要である。
  • ChatGPTは人工知能の氷山の一角である。組織の運営に人工知能を取り入れる際には、適切なAIリスクマネジメントの枠組みを設ける必要がある。

ChatGPTとはなにか?

ChatGPTは、会話のやり取り、人間らしいテキストの生成、さらにはコードの生成まで、多様なタスクをこなすチャットボットである。当初は2022年11月にOpenAIによって一般公開された無料サービスであったが、OpenAIは有料サブスクリプションモデルのプレミアム版も提供し、一部の基本技術について都度課金のAPIアクセスも提供されている。

ChatGPTの中核的技術は、人工知能の分野にある。AI製品という広い分野の中でChatGPTを位置づけるとすれば、ChatGPTは、多様なディープラーニング技術を用いて学習された人工ニューラルネットワークで構成されるLLMの上に築かれた生成型AIといえる。

AIの主要なターム:

  • 人工知能とは、従来人間の知能に関連する予測、推奨、決定などのタスクを機械が実行できるようにする技術をいう。
  • 人工ニューラルネットワークとは、人間の脳から着想を得たコンピュータシステムを意味し、相互に接続されたユニット(または人工ニューロン)で構成され、通常、層状に組織化されている。
  • 機械学習とは、人工知能の分野で使用される技術で、コンピュータプログラムが事前に定義されたルールに依拠するのではなく、トレーニングデータから学習することをいう。
  • ディープラーニングとは、機械学習の1つで、複雑な問題をモデル化して解決するために人工ニューラルネットワークを訓練することをいう。「ディープ」と表現されているように、人工ニューラルネットワークは通常何層ものニューロンで構成されている。
  • LLMとは、膨大な量のテキストデータ(インターネットから入手されることが多い)で学習させた人工ニューラルネットワークである。
  • 生成型AIとは、最近よく使われるようになった言葉で、ChatGPT又は画像生成ツール(Stable Diffusion又はDall-E 2など)のような新しい人工知能製品を総称するものである(翻訳又は分類など他のタスクに焦点を当てたAIツールとは対照的である)。

ChatGPTは最先端か?

確かにChatGPTのリリース前にも同様のLLMが存在していた(GoogleのLaMDA、MetaのOPT、NvidiaのMegatron-Turing NLGなど)。しかし、ChatGPTは、簡単にアクセスできるチャットボットインターフェースを通じて、強力なLLMを広く一般向けに利用可能にした初の製品であり、大衆の想像力をかき立てた。それ以降、類似のチャットボット(MicrosoftのBing、GoogleのBard、AnthropicのClaudeなど)が次々と登場しているが、最近のアップデートにより、ChatGPTは引き続き技術の最前線を進み、一部の評論家からは一般に公開されているチャットボットの中で「最も言葉を巧みに操る」と評価されている。

ChatGPTはなにができるのか?

ChatGPTや他のLLMは強力なツールであり、これまでのAIツールよりもはるかに高い習熟度で自然言語処理タスクを実行する。ChatGPTが特によく適応していると思われる主要なタスクは、以下の図のとおりである。

ChatGPTにすべて仕事を任せることができるか?

現状では、ChatGPTに仕事を任せることはできない。ChatGPTはとても便利なツールである可能性があるが、複数の制限もあり、不適切に使用することで、好ましくない結果を引き起こす可能性がある。複数の制限とは、以下のようなものが挙げられる:

ハルシネーション

LLMは、言語の統計モデルに基づいてテキストを生成するプログラムである。LLMは、真実性、常識、論理法則といった概念に基づくものでも、制限を受けるものでもない。

その結果、LLMは、自信満々に「でたらめ」(「ハルシネーション」とも言われる)を生成することで悪名高いといえる。このアウトプットは当たり前のように生成され、根拠を明示しないため、ユーザーは、それが誤った情報であるかを判別することが困難である。

信頼性に欠ける

LLMは信頼性に欠ける。言語の統計モデルに依存するだけでなく、すべてのアウトプットにはランダム性の要素が組み込まれているため、同じ内容のインプットに対し、異なるアウトプットがなされることがある。つまり、これは、ChatGPTが9回タスクを正しく実行しても、10回目に失敗する可能性があることを意味している。

特定のタスクでの失敗

ChatGPTの流暢で自信に満ちたトーンは、あたかも基本的な知能を持っているかのように錯覚を与える。しかし、ChatGPTにはとても不得意なタスクがある。例えば、最新版のChatGPTのLLM(GPT-4)でさえ、計算すること又は算数といった基本的なタスクができない。このように不得意なのは、ChatGPTを支える基礎となる言語モデルが確率に基づくもので、計算機や論理ルールを適用する推論エンジンではないからである。

学習の基礎となるデータが古い

ChatGPTの学習の大部分は、2021年9月までのデータに基づき行われている。その結果、それ以降の出来事に関するタスクをうまく処理できない。OpenAIは最近、ChatGPTがウェブ検索できるようにするプラグインを発表した。しかし、ChatGPTの基礎となるLLMの更新を伴わないため、ウェブ検索のプラグインがデータセットの制限に関する問題をどの程度解決できるかは不明である。

専門情報への限定的なアクセス

ChatGPTの基礎となるモデルは、主に一般に利用可能なインターネット情報に基づいている。組織内部の情報を利用したツールを作成したい場合(例:カスタマーサービス用のチャットボットの作成)は、APIを介してこの知識を統合する必要がある。ただ、これは簡単な作業ではない。

毒性及び偏向性

LLMのアウトプットは、その学習材料の偏向を反映している。ChatGPTの初期学習材料はインターネットの大部分を含んでおり、そのため、時折極めて毒性のあるアウトプットを作り出すことがある。

OpenAIは、この問題に対処するための対策を講じている(コンテンツのフィルタリング又は毒性のあるアウトプットを避けるようにするための学習など)。しかし、LLMの統計的性質を考慮すれば、これらの問題を完全に解決することは難しいと考えられる。毒性及び偏向性のあるアウトプットを避けるようにChatGPTを学習させること自体が問題を引き起こすといえる。なぜなら、その学習も、それぞれ独自の偏向を持つ人によって行われるからである。

秘密保持及びプライバシー

OpenAIは、製品の改善及び将来のバージョンの学習のために、ChatGPTとのやり取りを利用する可能性がある。最近のバグでは、一部のユーザーが他のユーザーの会話履歴のタイトルを閲覧できるようになっていた。そのため、現在、一般にアクセス可能なChatGPTに機密性の高い情報、センシティブな情報、又は個人情報を入力するのは誤りである。

最近、OpenAIはAPIを介して提供されたデータを今後学習で使用しないと発表した。しかし、組織では、データ及びプライバシーに関する問題(データセキュリティやデータの越境移転など)を引き続き検討すべきである。

あなたの会社はChatGPTの利用規程を設けていますか?

ChatGPT及び他のLLMの利用には潜在的なリスクが伴う。一方で、潜在的なメリットに目を向けることも重要である。LLMは急速に改善されており、少なからず生産性の向上に繋がる可能性がある。これらのツールを利用することで得られる利益がリスクを上回る場合もあれば、リスクを正当化できるほどの利益が得られない場合もある。そのため、組織は、従業員に対してこれらの技術の使用を全面的に禁止すべきではないが、また何ら規程を制定することなく、制限なく使用を認めることも望ましくない。

従って、従業員の勤務先でのChatGPTの使用に関して規程を設けることが非常に重要である。具体的には、以下に挙げる事項を定めることが考えられる。

  • 特定の使用方法を禁止、制限すること(例:事実に関する情報につきChatGPTを信頼する場合)
  • 推奨される使用例の提示すること(例:特定のコンテンツを作成のための文章作成の補助ツールとして使う場合)
  • ChatGPTに入力すべきでないデータの種類を明示すること(顧客データ、個人情報、営業秘密、その他機密又は取り扱い注意な情報など)
  • 従業員にChatGPTがアウトプットした内容の正確性について確認させること
  • 生成されたコンテンツの偏向可能性の検証を義務付けること
  • ChatGPTの使用に関連する他のリスク(機密性、弁護士秘匿特権、著作権、プライバシー、競争法など)について評価すること

組織は、従業員に対してChatGPT及び類似ツールに関する研修及びデモンストレーションを行うことも検討すべきである。なぜなら、既に多くの従業員がこれらのツールを利用している可能性があるからである。これにより、従業員が関連するリスクについて学ぶことができ、ChatGPT利用規程の遵守に繋がる。

また、この分野の急速な発展を考慮すると、定期的にリスク評価を行い、潜在的な被害を特定・緩和することが不可欠である。さらに、内部の法務部と幅広いビジネス部門がコミュニケーションを継続的に行い、ChatGPTに関連する使用方法、機会、リスクについて話し合うことも重要である。

あなたの会社にAIリスクマネジメントの枠組みはありますか?

ChatGPTは、人工知能の氷山の一角に過ぎないが、一般市民に認知された成功した数少ない例でもある。しかし、組織によるAI製品導入(既に導入済みの場合もある)は増加傾向にあり、業務の効率化、意思決定の最適化及び顧客に対するパーソナライズされた体験の提供など、さまざまな目的で活用されている。

多くの組織では、データ及び従来のソフトウェアに対するリスクマネジメントの枠組みが設けられているが、特に重要な決定を下す時に人工知能を頼る場合など人工知能の利用は、特有のリスクが発生する。AIのリスクについては、正確性、信頼性、安全性、公平性、偏向、差別、透明性の検討及び知的財産、データプライバシーの使用などの法的事項の検討を含め、広範な観点から考察しなければならない。

AIのもつ独自のリスクは単なる机上の空論ではない。もはや、研究者や倫理学者が「トロッコ問題」(訳者注:「ある人を助けるために他の人を犠牲にするのは許されるか?」という問題)について人工知能がどう対応するかを議論していた時代は過ぎた。最近では、チャットボットのエラーが原因で大手テック企業の時価総額が1,000億ドル減少したり、報道機関がAIツールで作成した記事の50%以上に誤りがあることを発見したり、さらには、ある企業の「AIコンパニオン」チャットボットは、ユーザーからの不適切な性的アプローチがあったとの報告を受け、中性的なキャラクターに変更されている。

そのため、未だAIリスクマネジメントの枠組みが制定されていないのであれば、今が制定するべき時なのかもしれない。AIリスクマネジメントの枠組みのベストプラクティスは、以下に挙げる事項が組み込まれているものである。

AI原則

AI原則は、組織内でAIを責任持って使用するための全体のアプローチを定義するものである。

AIガバナンスの枠組み

AIガバナンスの枠組みは、AI原則を実践するための方針と手順を定めたものである。具体的内容は以下のとおりである。

  • 導入時及びAIのライフサイクルを通じて、明確に定義された役割と意思決定及び見落としに対する責任を定める。
  • AIライフサイクルに適用される利用規程(例えば、データ利用、公平性・透明性、リスクマネジメントに関するポリシー)を導入し、組織全体に浸透させる。
AIの影響の評価

AIの影響の評価は、新しいAIプロジェクトを導入する際や既存のAIプロジェクトに大幅な変更を加える際に、組織全体がAIについて批判的に考え、AIがもたらすリスクをどのように管理するかを検討するよう促すことによって、AI原則及びAIガバナンスの枠組みを実践化することができる。

未知の領域へ

ChatGPTは、大きな可能性を秘めている。その一方で、複数の制限があることを認識し、その潜在的リスクを積極的に管理していくことが重要である。ChatGPTの利用規程と強固なリスクマネジメントの枠組みを実装することで、組織は顧客及びビジネスを守りながら、AIの流行に乗ることができる。

今後の数か月間で、ChatGPTや生成型AIに関連する法的問題について調査する予定である。「テック&データ」を関心分野として選択し、購読されたい。

注:この記事の執筆にあたり、ChatGPTを使用した(例えば、煩雑な法律用語を自然な英語に翻訳するのに役立った)。ただし、調査は全て人間の弁護士によって行われ、最終的には弁護士の独自の知的努力によって作成されている。テキストに含まれるハルシネーションは弁護士のものであり、誤記は人間の知性の欠陥によるものである。