金に糸目をつけなければ、誰でもGPT-4を作れる?――ChatGPTの基礎知識⑧by岡嶋裕史
過去の連載はこちら
岡嶋さんの好評既刊
ChatGPTはここから始めることができます
金に糸目をつけなければ、誰でもGPT-4を作れる?――ChatGPTの基礎知識⑧by岡嶋裕史
途方もなくでかいシステムを微調整するすごさ
GPT-4のすごさはさまざまに語られているが、私はモデルとデータセットの途方もないでかさを実現した点がこのシステムの白眉だと思う。
という評価はフェアではない。モデルがどんなに優秀でも、学習させるデータセットが汚染されていれば、AIは容易に差別をするし、著作権侵害をする。
GPT-4がそれに十全に対応しているとは言わないけれど、世界的なAI懐疑やポリティカルコレクトネスの潮流にさらされるなかで、やれる範囲の対策を惜しんではいない。
データセットから差別的な情報、偏った情報、フェイクなどを取り去る地獄のような作業を経て世に出されている。
モデルもそうだ。「機械学習で勝手に学ぶ」そこに間違いはない。だが、学んで育った結果が人間にとって望ましいものだとは限らない。あれは子どもを育てるようなもので、環境を整えてあげたり、動機付けをしてあげることはできるが、親の思い通りに育つことは保証されない。むしろ、「何でこうなっちゃったんだ」とうなだれるような結果のほうが多い。
そこで初期条件を変え、「望ましい行動」の伝え方を工夫し、複数の「望ましい行動」同士に生じる矛盾をほぐす。これもデータセットから望ましくない情報を除去するのと同じく、砂漠の砂を箸でつまんで湖に捨てていくような仕事である。つらい。
そして一度世に出した後も、「AIがヘイトスピーチを始めたぞ」なんて事態になれば、それを回避するために「ファインチューニング」をすることになる。ファインチューニングは英和辞書で調べれば微調整と出てくるので、ちょっと調整するだけに思える。
ChatGPTはシュヴァルの理想宮?
でも、現実的にはそうではない。
たとえばF1ではサーキットごとにマシンのセッティングを行う。これも車の調整と訳されるのだが、あれはちょっとウイングを立てるとか寝かせるとか、そんな生やさしい作業ではない。エアロダイナミクスからメカニカルまで、サーキットにあわせてマシンを作り替えていると表現したほうがよい。
F1ドライバーが「予選の前のプラクティスでマシンを作っていく」などとインタビューに答えるのは伊達ではないのだ。
AIのファインチューニングは、F1マシンのセッティングに近い。もちろん、モデルを最初から作ることと比較すれば「微」調整だけれど、作業の絶対量が「微」なわけではない。だから、最近はいかにファインチューニングの手間を省くか(しなくていいようにする、やるとして自動化する、使うデータが最小量ですむようにするなど)の研究が過熱している。
この繊細微妙な崩れやすい大迷宮をOpenAIは作って見せたのである。賞賛されるべきことだ。ソフトウェアの内部構造は目に見えないので興味のない人にはまったくピンとこないと思うが、たぶんシュヴァルの理想宮に近い。フランスの郵便配達をしていた人が、ふとしたきっかけで拾ってきた石を庭に積み上げ始め、30年以上をかけて(1人で!)宮殿を完成させる話である。マジかよ。
GPTのチームがやったことはこれに近いと思う。そのくらい大変なのだ。(続く)