2023年11月6日に行われた、OpenAI DevDayアップデートを要約します。
はじめに
OpenAI DevDayでは、多くの有用なアップデートが発表されました。
OpenAIからのメールにアップデート内容が端的に要約されていたので、それを元にアップデート内容をまとめます。
より詳細に把握したい方は、下記の公式ブログやアナウンスのライブ配信をご覧ください。
New models and developer products announced at DevDay
OpenAI DevDay, Opening Keynote - YouTube
OpenAI DevDayアップデートまとめ
GPT-4 Turboの発表
最新モデル「GPT-4 Turbo」が発表されました。
- 128Kのコンテキスト長
- 2023年4月までの知識を保有
- 値下げ:
- 入力トークンが$0.01/1K (旧GPT-4の1/3)
- 出力トークンが$0.03/1K (旧GPT-4の1/2)
- Function callingの改善
- 複数functionの同時呼び出し可能
- JSONの出力を強制できるJSONモードの追加
- seedの指定により、一貫した出力・再現可能な出力が可能(beta機能)
GPT-4 TurboはAPIでモデルgpt-4-1106-preview
を指定することで利用できます。
GPT-3.5 Turboのアップデート
GPT-3.5 Turboもアップデートがあります。
- デフォルトで16Kトークンのコンテキスト長をサポート (従来の4倍)
- 値下げ:
- 入力トークン: $0.001/1K
- 出力トークン: $0.002/1K
- 16Kモデルのファインチューニングが可能
- ファインチューニング済みGPT-3.5の値下げ
- 入力トークン: $0.003/1K (75%値下げ)
- 出力トークン: $0.006/1K (62%値下げ)
- Function callingと再現可能な出力は、GPT-4 Turboと同様に実装される
Assistants APIの発表
Assistants APIのベータが発表されました。
これは、これまではLangChain等を利用して実装されてきたエージェントのような機能を提供しています。 特定のタスク/目的を与えると、その実現のための行動計画を自ら立て、実行していきます。
特徴:
- 永続するスレッド: スレッド/会話履歴の管理をAPI側がやってくれる
- Assistantが利用するToolとしては、Code Interpreter, Retrieval, Function callingが利用可能
マルチモーダルAPI
画像入力がAPIでも可能になります。
GPT-4 TurboのChat Completions APIで、画像の入力が可能です。
プレビューモデルgpt-4-vision-preview
で公開された後、今年末に本番モデルに統合される予定です。
画像生成モデルのDALL·E 3も、APIで提供されるようになります。
また、text-to-speech: TTSモデルも提供され、テキスト文字から音声を生成できるようになります。
GPTsの発表
ユーザーは用途に特化したカスタムChatGPTを構築し、それを「GPTs」として利用/公開することができるようにます。
DALL·EやAdvanced Data Analysisなど、OpenAIはこれまでChatGPTの拡張として使える機能をいくつか提供してきました。 これからはユーザー自身もChatGPTをカスタムし、公開することができます。
おわりに
OpenAI DevDayのアップデートをざっくり要約してまとめました。
この分野は本当に日々大きなアップデートがあり、時代の変化を感じますね。
[関連記事]
参考
New models and developer products announced at DevDay
OpenAI DevDay, Opening Keynote - YouTube
OpenAI Dev-Day 2023: Announcement! - Community - OpenAI Developer Forum