API を介して独自のドキュメントで ChatGPT をトレーニングできるようになりました
ベンジ・エドワーズ - 2023 年 8 月 23 日午後 8 時 16 分 UTC
火曜日、OpenAI は、API を通じて、ChatGPT の無料版を強化する AI モデルである GPT-3.5 Turbo の微調整を発表しました。 これにより、会社の文書やプロジェクトの文書などのカスタム データを使用してモデルをトレーニングできます。 OpenAI は、特定のシナリオでは、微調整されたモデルが低コストで GPT-4 と同等のパフォーマンスを発揮できると主張しています。
AI では、微調整とは、事前トレーニング済みのニューラル ネットワーク (GPT-3.5 Turbo など) を取得し、それを別のデータセット (カスタム データなど) でさらにトレーニングするプロセスを指します。通常、これはより小さく、特定のタスクに関連している可能性があります。 このプロセスは、モデルが初期トレーニング段階で得た知識に基づいて構築され、特定のアプリケーション向けに改良されます。
基本的に、微調整では、プロジェクト ドキュメントやその他の文書化されたリファレンスなどのカスタム コンテンツについて GPT-3.5 Turbo に学習します。 これは、製品やサービスに精通しているものの、トレーニング データ (念のため言っておきますが、9 月より前に Web から削除されたもの) にその知識が欠けている GPT-3.5 に基づいた AI アシスタントを構築したい場合に便利です。 2021)。
「GPT-3.5 Turboのリリース以来、開発者や企業は、モデルをカスタマイズしてユーザーにユニークで差別化されたエクスペリエンスを生み出す機能を求めてきました」とOpenAIはプロモーションブログで書いている。 「今回のリリースにより、開発者は監視付き微調整を実行して、ユースケースに合わせてこのモデルのパフォーマンスを向上させることができるようになりました。」
GPT-3.5 のより強力ないとこである GPT-4 は、多くの主題に適応できるジェネラリストとしてよく知られていますが、実行速度が遅く、コストも高くなります。 OpenAI は、特定の知識領域で GPT-4 のようなパフォーマンスを低コストでより高速な実行時間で実現する方法として 3.5 の微調整を提案しています。 「初期のテストでは、GPT-3.5 Turboの微調整バージョンが、特定の狭いタスクに関して基本的なGPT-4レベルの機能と同等、あるいはそれを上回る性能を発揮できることが示された」と彼らは書いている。
また、OpenAI は、微調整されたモデルにより「操縦性が向上」する、つまり指示に従いやすくなると述べています。 「信頼性の高い出力フォーマット」。これにより、API 呼び出しや JSON などのフォーマットでテキストを一貫して出力するモデルの機能が向上します。 「カスタム トーン」は、チャットボットにカスタムのフレーバーや個性を組み込むことができます。
OpenAI によれば、微調整によりユーザーはプロンプトを短縮でき、トークンごとに課金される OpenAI API 呼び出しのコストを節約できるという。 「初期のテスターは、命令をモデル自体に微調整することにより、プロンプトのサイズを最大 90% 削減しました」と OpenAI は述べています。 現時点では、微調整のコンテキスト長は 4,000 トークンに設定されていますが、OpenAI によれば、微調整は「今秋後半」には 16,000 トークン モデルまで拡張される予定です。
ここまでで、独自のデータを使用して GPT-3.5 をトレーニングすることがどのように機能するのか、またそのコストはいくらなのか疑問に思っているかもしれません。 OpenAI は、API を使用したシステム プロンプトの設定、トレーニング用の OpenAI へのファイルのアップロード、コマンド ライン ツールのcurl を使用して API Web アドレスをクエリする微調整ジョブの作成を示す簡略化されたプロセスをブログに掲載しています。 OpenAIによると、微調整プロセスが完了すると、カスタマイズされたモデルはベースモデルと同じレート制限ですぐに使用できるようになるという。 詳細については、OpenAI の公式ドキュメントを参照してください。
もちろん、これらにはすべて費用がかかり、トレーニング費用と使用コストに分けられます。 GPT-3.5 をトレーニングするには、1,000 トークンあたり 0.008 ドルの費用がかかります。 使用フェーズ中の API アクセスの料金は、テキスト入力の場合は 1,000 トークンあたり 0.012 ドル、テキスト出力の場合は 1,000 トークンあたり 0.016 ドルです。
比較すると、基本の 4k GPT-3.5 Turbo モデルのコストは 1,000 トークン入力あたり 0.0015 ドル、1,000 トークン出力あたり 0.002 ドルであるため、微調整モデルの実行コストは約 8 倍になります。 また、GPT-4 の 8K コンテキスト モデルも、1,000 トークン入力あたり 0.03 ドル、1,000 トークン出力あたり 0.06 ドルと安価ですが、それでも OpenAI は、微調整モデルではプロンプトの必要性が減るためコストを節約できると主張しています。 無理がありますが、狭いケースでは当てはまるかもしれません。