ChatGPTを使ったり他の人たちによる様々な投稿や記事を読みながら思ったのは、「ChatGPTを使うことは、才能ある子どもと話すのに似ている」ということです。

AIと向き合っているとまるで子どもとそうしているようにイメージすることが多いのですが、それはおそらくAIが活躍できるように世の中のことを教えてあげなければならないと思うからでしょう。

しかしChatGPTは私の印象をはるかに超える、洗練されたものでした。それはまるで早熟で才能のある、エイリアンの子どものようなものだったのです。

一見すごい能力を持っているようだが、私たちが生きている世界の基本的なことも知らない。話しかけたり質問をすると時折素晴らしいことを言いますが、なぜそう答えたのか、その答えは正しいのか、質問の仕方がまずかったのかはよくわからないのです。

私たちはコミュニケーションをとる相手に対して何らかの影響を与えることを期待するものです。

それは普通のことでしょう。自分が話す相手に影響を与えることができるのですから。

しかしデータがクラウドをベースとしている以上、それ使う人すべてが、AIの改善に寄与し、悪化させないことに期待せねばなりません。

ChatGPTは信じられないほど明晰な洞察力とまれに奇妙な回答の間を行き来する、理解しがたい存在と言えます。

  • もしChatGPTが人間だったら、あなたはそのような人を雇いますか?
  • あなたの製品、サービス、ブランドのスポークスパーソンにしたいですか?
  • 毎日顧客と接する人にできますか?

おそらくそうではないでしょう。

ChatGPTや大規模言語モデル(LLM)をビジネスで使うことは素晴らしい結果を期待させますが、一方でリスクも伴います。

ここではそのリスクの一部を紹介します。

※本コラムはVUX World社のコラムを元にお届けします

データ

どこからデータを拾ってくるのか?

他人が言うことはすべて真実なのでしょうか?もしそう思っているならそれは恐ろしく危険です。

ある話題について、怒れる暴徒がネット上の言説の大半を生み出しているような状況や、政府が言論を注意深く監視し、人々がネット上で「認められた真実」と「実際の真実」を表明するのは、誰も、どんな装置も聞いていないと確信したときだけだとしたらどうでしょう。

この場合、大規模言語モデル(LLM)は「国家が承認した真実だけで構成された、大衆に影響を与える政治的な道具」となるのです。

あなたが入力したデータはどこで、どう処理されるのか?

顧客データを大規模言語モデル(LLM)に使うことには法的なリスクがあります。

GDPR(EU一般データ保護規則)によれば、顧客から要求があった場合その顧客データをすべて削除しなければなりません。

しかし(OpenAI社など)第三者がそのデータを持っている場合はどうすればいいのでしょうか?顧客にサービスを提供している以上それはあなたの責任です。

大規模言語モデル(LLM)が顧客データをどう扱うか、どこに保存されるか、誰が見るか、正しく理解していますか?

バイアス

データやアルゴリズムにどんなバイアスがかかっているのか?

どのようなデータを使って学習させたのか?そのデータをどのように解釈するのか?それがわからないとChatGPTがどのようなバイアスをもっているのかがわかりません。

その結果、現実を歪めてしまうことがあるのです。

質問に対する答えは常に正しいのか?

患者に自殺を勧めるボットを見たことがあります(2020年のGPT-3時点です)。大規模言語モデル(LLM)は真実と嘘の区別がつきません

それは人から教えられたこと、あるいはChatGPTの場合は生成すると決定したことしか知らないのです。

的外れのメッセージ

ブランドの価値、メッセージ、ペルソナをどの程度コントロールできるのか?

自社ブランド独自のトーンで書かれたコンテンツを使って大規模言語モデル(LLM)を訓練することはもちろん可能ですが、それによって生成されたすべてを監視、管理することは不可能です。

Alexaがそうであったように、あなたが望んでいない情報やアドバイスを提供したり、自社ブランドを傷つける可能性があるとしたらどうでしょうか。

自社の評判を落とす可能性を考えれば、ブランディングを頼む相手は誰でも良いはずがありません。

それなのになぜChatGPTに頼るのでしょうか?

モデレーションに人の力が必要

この「魔法のような」ツールが機能するために、低賃金で働く膨大なチームが必要となる

これはAI業界に於けるディストピア的な要素ですが、自動化されたボットが私たちの不要な仕事を代わりにやってくれるのではなく、ボットを自動化させるために低賃金の労働者が必要となるのです。

たとえば「極端なオンラインコンテンツにタグ付けする」モデレーションと呼ばれる作業などがそうです。

最近OpenAI社がツールのモデレーションをケニアの労働者に委託していたことが発覚しましたが、その多くは時給2ドル(約280円)以下でした。

ケニアの平均賃金は時給1.25ドル(約175円)という報告もありますが、アップルやアマゾンは過去に労働者の賃金が低いとして非難を浴びました。

【ChatGPTのような大規模言語モデル(LLM)】を使用するリスクについて

競争

軍拡競争になってもユーザーのニーズや権利を忘れずにいられるのか?

あるベンダーが大規模言語モデル(LLM)をソフトウェアに実装すると、別のベンダーがそれをそっくりコピーします。

すると別のベンダーもそれをコピーし、さらに別のベンダーも…。彼らは皆イノベーションに追い付きたいと思っているのです。

しかし単に歩調を合わせるだけでは十分ではありません。競争し、互いを出し抜く必要があるのです。

そこでベンダーたちはさらに、この大規模言語モデル(LLM)という新しいおもちゃで競合他社よりも大胆になろうとするのです。

そして競争は「大規模言語モデル(LLM)を自社のプラットフォームや機能にうまく組み込んでいるのはどこか?」という「軍拡競争」に発展する可能性もあるのです。

「どのベンダーがもっとも良いのか?」と追求し過ぎると、マーケットシェアを競うあいだに大規模言語モデル(LLM)のリスクや倫理観が雑音に紛れてしまう可能性があるのです。

著作権

アウトプットは誰のもの?

ChatGPTで生成された素材はお金を払わなくても再利用できるように思えるかもしれません。しかし生成系AIでは何が起こるか誰にもわからないのです。

ヒットするポップソングが生まれたり、AIによる芸術作品がオークションで高額で売れたり、ボットが有名なタレントになったりしたらどうでしょう?

本の場合はどうでしょうか?その権利は誰にあるのでしょうか?プロンプトを作った人?それともアルゴリズムを所有する会社なのでしょうか。

インプットは誰のもの?

ChatGPT(およびその他の生成AIモデル)が生成するコンテンツは、まったく新しく唯一なもののように思えるかもしれません。

しかしそのシステムがインターネット上の既存のデータで訓練されていることを忘れてはなりません

良く言えばそれらはすでにあるものをベースにしているのです。悪く言えば盗用です。

たとえば、LensaAIなどのAI画像生成アプリケーションの中には、「フェイク(偽)」というサインを下に施した絵画を生成するものもありますが、絵画の下に書かれた画家のサインを理解できるようにシステムに学習させるためには、実際にそのようなサインのある絵画を取り込む必要があります。

つまり本物のアーティストの作品ということです。

これについて、画家はどの時点でAIシステムが生成するコンテンツについて著作権や所有権、ロイヤリティを主張できるのでしょうか。

ChatGPTのような大規模言語モデル(LLM)の場合、それらが書籍のように著作権で保護された素材で正しく訓練されたかどうか、我々はどうやって知ることができるのでしょうか。

また、未来ではそのようなことは関係なくなるのでしょうか?その場合所有権はどこにあることになるのでしょうか?

アルゴリズムとそのコントロール

他人が作ったアルゴリズム信頼することになる

それはつまりGoogle検索にすべてのリソースを投じるようなものです。有効かもしれませんが、アルゴリズムが変わったらどうなるのでしょう?

ブランドは過去にソーシャルメディアで指を火傷したことがあります。たとえば広告費を増やすために、オーガニックなリーチを優先させるなどです。

大規模言語モデル(LLM)の場合、アルゴリズムを高度にコントロールすることはできません。

つまりアルゴリズムが変更された場合、それを使ってあなたが構築したソリューションにも影響が出る可能性があるのです。

ChatGPTに於いてもすでに変更があったことは確認されています。

それを使ってビジネスを構築すればするほど、ビジネスモデルが変わったりアルゴリズムが変わったりしたときのリスクは高くなるということです。

そのリスクは大規模言語モデル(LLM)を製品に取り入れる量に正比例しますが、もしそれが構築の手助け程度に使われただけで最終的な結果の構成要素ではないのであれば、アウトプットを微調整し、再び実行する機会を得ることができるでしょう。

しかし大規模言語モデル(LLM)を野放しにすると、大きなリスクを背負うことになるのです。

大規模言語モデル(LLM)とChatGPTを使うべき場所

リスクのない大規模言語モデル(LLM)の使い方をアドバイスすることはできませんが、大規模言語モデル(LLM、または実用化されたChatGPT)を特定のプロジェクトやタスクの設計や作成プロセスの参考程度に使用し、最終製品の多くを占める要因として使うことさえなければ、リスクを軽減することができるようです。

そうすれば大規模言語モデル(LLM)を使って会話をしたりクリエイティブなアウトプットのための資料を作ったりチェックしたり、必要なことを調整した上で世に出すことができます。

また、そうすれば大規模言語モデル(LLM)が突然使えなくなったとしても、あなたが作ったボットやあなたが取り組んでいるタスクが使えなくなることもありません。

会話型AIシステムの設計やチューニングに大規模言語モデル(LLM)を使用することには、潜在的なメリットが豊富にあるのです。

そしてその多くは、顧客へのアウトプットではなくバックグラウンドでのタスクにとってです。

もちろんそういったことも、週単位で改善され、変化し続ける大規模言語モデル(LLM)とともに変化していくでしょう。

しかし現時点ではバックグラウンドタスクは大規模言語モデル(LLM)を用いる対象として最適であり、リスクを管理する上で今のところ唯一の方法なのです。

まとめ

以上、「【ChatGPTのような大規模言語モデル(LLM)】を使用するリスクについて」でしたがいかがでしたでしょうか。

当社は翻訳の目的や、翻訳する文書の特徴、性質などを正しく理解、見極め、相手国の文化的背景を念頭に、ホームぺージや契約書、取扱説明書、プレゼン資料、リリース、ゲーム、アプリその他あらゆるビジネスで必要なドキュメント、テキストの「プロ翻訳者による翻訳」を、英語を中心に世界120か国語で行います。

高い品質が求められる外国語対応や翻訳についてもしお困りでしたら、どうぞお気軽にお問い合わせください。

お問い合わせボタン