ChatGPT、能弁なロボットか誤情報の発信マシンか

Read the English version published on December 10, 2022.

本稿はOlivia Solonが執筆し、ブルームバーグ ターミナルに最初に掲載されました。

チャットボットはコールセンターで人間に置き換わってきたが、顧客の複雑な質問に答えるのがさほどうまくない。だが一般公開された「チャットGPT(ChatGPT)」から判断すると、そうした状況は変わるのかもしれない。このプログラムは膨大な情報をくまなく探し、自然に聞こえる文章をクエリーやプロンプトを基に生み出す。さまざまなプログラミング言語コードの作成・修正が可能で、詩やエッセーを文学的スタイルまで模倣して書ける。一部の専門家は人工知能(AI)の画期的な成果だと評し、多くの仕事で人間に代わることができ、グーグルなど巨大事業を破壊することもあり得ると考えている。ただ、チャットGPTなどのツールは賢そうに聞こえる誤情報をインターネットに大量に流す恐れもあると警告する専門家もいる。

1.「チャットGPT」の後ろ盾は誰か

サンフランシスコに本拠を置く研究所オープンAIが開発した。オープンAIはプログラマーで起業家のサム・アルトマン氏やイーロン・マスク氏らシリコンバレーの富裕投資家が「全人類に恩恵を与える」AI技術開発を目的に2015年に共同で設立した。

オープンAIはビデオゲームで人間に勝てるソフトウエアのほか、文章の説明を基に写真のようなリアルなものから空想的なものまで画像を生成できるツール「Dall-E」も開発した。チャットGPTは文書生成のAIプログラムの一種であるGPT(Generative Pre-Trained Transformer)の最新版。現在はオープンAIのウェブサイトで「研究のプレビュー」として無料で利用できるが、同社は収益化の方法を見つけたい考えだ。

オープンAIの出資者には、19年に10億ドル(約1280億円)を拠出したマイクロソフトやリンクトインの共同創業者リード・ホフマン氏の慈善団体、コースラ・ベンチャーズなどがある。オープンAIによると、マスク氏は共同創業者で初期に非営利事業体のオープンAIに寄付したが、18年に手を引き、現在は経済的な利害関係はない。オープンAIは19年に営利目的の事業体創設に移行。ただ、投資家と従業員が受け取る投資リターンには上限があり、それを超える利益は当初の非営利事業体に戻すという独特な財務構造を持つ。

2.どのように機能するのか

GPTのツールは文章を読解でき、人間の話し方や書き方と似た文を生成できる。探している内容に関して典型的な例や明確な指示を与えられずにデータセットの中からパターンを見つける「教師なし学習」と呼ばれるプロセスで訓練される。最新版の「GPT-3」は、答えがふさわしく十分な情報を備えたものになるよう、ウィキペディアやニュースサイト、書籍、ブログなどインターネット上から文章を取り込む。チャットGPTはGPT-3に会話のインターフェースを追加した。

3.これまでの反響は

チャットGPTが昨年11月下旬に公開されてから数日間で100万人余りが使い始めた。楽しみながら軽い気持ちで試すユーザーの投稿でソーシャルメディアは賑わっている。あいまいで取るに足らないような質問への回答を共有する人がいる一方で、教養のある歴史的な議論や大学の「論文」、ポップソングの歌詞、仮想通貨に関する詩、具体的な食生活ニーズに合う食事プラン、プログラミングの問題への解決策に感嘆する人もいた。

4.他にどのような用途があり得るか

一つはグーグルなどの検索エンジンの代替としての利用が考えられる。あるトピックについて何十もの記事を探しウェブサイトから関連する文章を提示するのではなく、カスタムメイドの回答を提供できるかもしれない。これは自動カスタマーサービスを洗練された新たな段階に引き上げ、人間の担当者と話すために顧客を待たせることなく適切な回答を出せるようになるかもしれない。ブログ投稿に加え、コピーライターの助けが必要だった企業の広報コンテンツを作成できる可能性がある。

5.限界は何か

チャットGPTが間接的な情報を基に組み合わせた答えはあまりにも信頼できそうに見えるため、正確性は立証済みだとユーザーは考えるかもしれない。しかし実際には、生成される文章は読みやすく賢く聞こえるものの不備や偏り、部分的な誤り、場合によってナンセンスであるかもしれない。このシステムの訓練に使われたデータを超える賢さはない。情報源など有用な文脈から切り離されたり、資料が信頼できないことを示唆することが多い誤字や他の欠陥を伴う中で、答えに欠陥があることに気付くほどその話題に精通していない人にとって、そうしたコンテンツは地雷原となり得る。コーディング助言フォーラムを持つコンピュータープログラミングのウェブサイト、スタック・オーバーフローは、正確でないことが多いとしてチャットGPTの回答を禁止した。

6.倫理的なリスクはなにか

機械知能が洗練されるにつれ、人をだますための策略やいたずらの可能性も大きくなる。マイクロソフトのAIボット「Tay」は一部のユーザーに人種やジェンダーの差別的な言葉を教え込まれ、16年に停止された。メタ・プラットフォームズが開発したモデルでも22年に同様の問題が発生した。オープンAIは不適切な要求を拒否するようチャットGPTを訓練してヘイトスピーチや誤情報を発信する能力を抑制しようと試みた。最高経営責任者(CEO)のアルトマン氏はシステム向上に向け、不快だったり攻撃的だったりする答えに「親指を下げるサイン」を示すよう利用者に求めたが、一部のユーザーはこれをかいくぐる方法を見いだした。

基本的にチャットGPTは言葉をつなげることはできるが、それらの重要性を全く理解しない。人間なら本や他の文章で気付くようなジェンダーや人種のバイアスをすぐに見つけない可能性がある。詐欺行為を働く手段にもなり得る。大学の教師は学生が宿題にチャットボットを利用することを警戒している。議員は地元選挙区の有権者と見られる送り主から法案に反対する書簡を大量に送り付けられた場合、それが本物なのかそれともロビー団体がチャットボットを利用して作成したものか見分けがつかないかもしれない。

本稿は英文で発行された記事を翻訳したものです。英語の原文と翻訳内容に相違がある場合には原文が優先します。

チャットGPTについてアレックス・ウェブ氏が語る

デモ申し込み