研究所紹介  

   

活動  

   

情報発信  

   

あいんしゅたいんページ  

   

ついにパンドラの箱は開いた: ChatGPT元年

詳細

はじめに

2022年11月30日、米国の人工知能(Artificial Intelligence=AI)開発企業であるOpenAI(オープンAI)はChatGPT(チャットGPT)を発表した。チャットとはおしゃべりという意味で、GPTはGenerative Pre-trained Transformer(生成的訓練済みトランスフォーマー)の略である。ChatGPTはGPTという自然言語エンジンを使って、人間と人工知能が対話を行う仕組みである。これが現在、大きな話題を集めている。それは人類文明を大きく変えてしまうほどの威力を秘めている。

私は2023年をChatGPT元年と呼びたい。ChatGPTは2022年11月末に発表されたのだが、本格的に威力を発揮し始めたのは2023年初頭からであると言って良いだろう。Covid-19も本来は2019年末に発生したのでそう呼ばれているが、世界に大きな影響を与え始めたのは2020年からである。

 本記事ではChatGPTとその進化版であるChatGPT PLUS、及びその基礎にあるGPT-3とGPT-4について解説する。

生成的人工知能

Generative(生成的)とは生成できるという意味である。何が生成できるかというと、文章とか画像、音楽、コンピュータ・コードなどである。最近、生成的AIが爆発的な進化を遂げて大きな話題になっている。生成的AIのひとつとして画像生成AIがある。画像生成AIとしてはOpenAIの発表したDALL-E2(ダリ2)の他にMidjourney(ミッドジャーニー)、Stable Diffusion(ステーブル・ディフュージョン)などがある。これらは現在進行形でアート業界に激震をもたらしているが、その話は別の記事で解説しよう。本記事では文章生成AIであるGPTに話を限定する。

トランスフォーマー

トランスフォーマー(Transformer)とは2017年にGoogle(グーグル)が”Attention is all you need(注意が必要なことの全てだ)”という論文で発表したDeep Learning(ディープラーニング=深層学習)のアーキテクチャーの一つである。Attention(注意)とは、文章のなかで単語間の関係性の強さを表す量である。トランスフォーマーは当初は翻訳のために用いられたが、その後、Natural Language Processing(NLP=自然言語処理)一般において恐るべき能力を秘めていることがわかり、さまざまな形に発展した。トランスフォーマーのアーキテクチャーがどのようなものかは別の記事で解説したいが、ここでは人工知能の革命的なアーキテクチャーであるということを知れば十分である。

トランスフォーマーを単に翻訳だけでなく、自然言語処理一般に用いることができるようにした人工知能GPT-1を、2018年6月にオープンAIが発表した。そのあとグーグルは2018年11月にBERT(Bidirectional Encoder Representations from Transformers=トランスフォーマーによる双方向復号表現)を発表した。これはトランスフォーマー・アーキテクチャーが自然言語処理に実用的に使用された初めての例である。

GPT-2

2019年2月にオープンAIはGPT-2を発表したが、それが大きな話題になった。というのもオープンAIという組織の本来の目的はAI研究をオープンに行うというものであったが、GPT-2があまりに危険であるとして、その最大バージョンを非公開にしたからである。つまりオープンAIが実質的にクローズドAIになったのである。なぜ危険かというと、GPT-2はあまりに自然な文章を生成することができるので、フェイク文章を簡単に大量に生成できることが危惧されたからである。

もっともオープンAIはその方針をのちに撤回して、モデルのソースコードやそれに用いられているデータは公開しないが、一般の人々の使用を可能にした。

ChatGPTが大きな話題になっているのは、それがだれにでもタダで使えるからである。その気になればフェイクニュースを作ることもできるが、それをできないようにしようとオープンAIは苦労している。ここらあたりの話も、いろいろあるのだが、本記事では触れない。

GPT-3

2020年5月にオープンAIはGPT-3についての論文を発表した。これらのモデルの能力はその中で用いられるパラメータ数で決まる部分がある。GPT-1, 2, 3の最大モデルのパラメータ数はそれぞれ1.2億、15億、1750億である。いっぽうBERTは3.4億である。GPT-3がいかに巨体なモデルであるかわかるだろう。これらのモデルを総称してLarge Language Model(LLM=大規模言語モデル、巨大言語モデル)とよぶ。もっとも巨大言語モデルのパラメータ数だけに関して言えば、もっと大きなものも存在する。しかしのちの研究で巨大言語モデルの能力はパラメータ数だけで決まるのではなく、学習に使ったデータ数が重要であることがわかった。

最近ではトランスフォーマーのソースコードも容易に手に入る。問題はソースコードではなく、学習済みのモデルである。これを作成するためには、例えばGPT-3程度のLLMでは、スーパーコンピュータを何ヶ月も走らせて、数億円の使用料を払わねばならない。しかしごく最近のニュースでは、個人のちょっと大きめのパソコン程度でも、計算できるようになったという。恐ろしい時代になったものだ。  

ChatGPT

冒頭で述べたChatGPTはGPT-3の改良版であるGPT-3.5を用いている。これが2022年の11月末に公開されて、一部の専門家、愛好家の間に衝撃が走った。あまりに自然な文章を生成するからである。それだけではない。ChatGPTはとてつもなく該博な知識を持っている。その一例として、次の記事ではChatGPT (PLUS)を使って私が書いたエッセイを紹介したい。

ChatGPTは発表されてから、少しの間に百万人のユーザー数を達成した。現在では世界で1億人が使っているという。1日の使用者数も1300万人にも達するという。使ってみればわかるが、何か質問すると数十秒程度の時間で回答が帰ってくる。ある時間帯の使用者数を仮に百万人だとしよう。聖徳太子はいちどきに10人の訴えを聞くことができたので天才だという伝説がある。それでいうとChatGPTの頭の回転の速さは聖徳太子10万人分なのである。こんなに頭の回転の速い人間は誰もいない。知能を質(頭の良さ)と量(頭の回転の速さ)でいえば、ChatGPTの知能の質はまだまだ問題があるが、量だけでみれば人間をはるかに超えた超知能であるといえよう。

しかし問題も散見された。ChatGPTはときどき、とてつもない嘘を平然というのである。例えば私が試した例では「イヌリンとはなんですか?」と聞くと、それは石垣島に住む鳥類だと無茶苦茶な嘘を平然とついた。イヌリンとは実際は水溶性食物繊維の一種である。このような現象を幻覚とよぶ。

もっとも、イヌリンも英語で聞くと正しい答えをした。英語と日本語で試した経験では、ChatGPTは日本語では中学生程度、英語では大学生程度の頭であると考えるのが無難だ。ChatGPTは日本の歴史や文化に関しては、それほど詳しくはない。要するにChatGPTはアメリカ人の人工知能なのである。ChatGPTに対して批判的な人は、日本語で質問してトンチンカンな回答を得たとあげつらう場合があるが、ChatGPTとは日本語もできるアメリカ人だと思うべきだ。アメリカ人なのに、日本語がよくできますねと考えて、ChatGPTを評価しなければならない。もっとも最近のChatGPT PLUSで試した場合は、イヌリンに関しては正しい答えを示した。しかし日本史の質問ではまたまだである。英語での回答は日本語よりはるかに良いが、それでもときどき多少の間違い、とんでもない大嘘をいう場合がある。そのことを知って使う必要がある。

GPT-4

GPT-3の改良版であるGPT-4が2023年3月14日に発表されて、現在話題沸騰中である。GPT-4をエンジンとしたChatGPT PLUSは有料で、月あたりの使用料は20ドルである。筆者は先日申し込んで、それ以降ChatGPT PLUSにどっぷりとハマってしまった。

ChatGPTのエンジンであるGPT-4はGPT-3やGPT-3.5に比べて大幅に改良されている。その一部の能力は平均的な人間をはるかに超えている。しかしGPT-4の詳細はGPT-3の時と違って、公開されていない。それは業界、あるいは国家間の激しい競争のためであるという。

GPT-4の知的能力を測定するためにさまざまな問題を解かせたという研究がある。その結果の要約は以下のようなものだ。米国の大学入試のための共通テストであるSATは高校生の読解力、文書力、数学力を試すものである。GPT-4はSATで上位6%の成績を収めた。また難解なことで定評のある米国の司法試験ではトップ10%であった。GPT-3では下位10%であったので、非常な進歩である。生物、微積分、マクロ経済学、心理学、統計学、歴史に関する高校生の試験問題であるAPではトップであった。MMLUという様々な分野の専門知識を問う4択問題では、GPT-4は86.4%の正解率であった。4択だから適当に選べば25%になる。GPT-4以前の最高性能はグーグルのFlan-PaLMで75.2%であった。GPT-3.5は70%、GPT-3は53.9%、GPT-2は32.4%であった。ちなみに平均的人間の正答率は34.5%である。つまりGPT-4の知識水準は平均的人間をはるかに超えている。

 

このようにGPT-4は多くの局面において、平均的人間の知能を圧倒している。またGPT-3までは入力も出力も文章であったが、GPT-4では画像入力も可能である。もっとも出力は文章である。GPT-4をエンジンとしたサービスは先に述べたChatGPT PLUSであるが、最近マイクロソフトがGPT-4の改良版を組み込んだ検索エンジンであるBingを公開した。これはPDFファイルも読めるという優れものである。現在は筆者は申し込んだが、待ち行列に入っている段階であるので、この使用例はいつか報告したい。

ともかくGPT-4の出現で世界は変わったのである。それに関しては今後の記事で取り上げていきたい。   

   
© NPO法人 知的人材ネットワーク・あいんしゅたいん (JEin). All Rights Reserved