ChatGPTの登場は、その優れた自然言語能力で多くのユーザーを魅了しました。これは、以前に確立された大規模言語モデルであるGPT-3.5に基づいています。しかし、待望のGPT-4の登場は、AIに対する期待を一変させ、人工的な一般知能(AGI)への早期の一瞥を得ることになりました。
GPT-4とは?
GPT-4はOpenAIの最新の言語モデルであり、人間の言葉に近いテキストを生成することができます。このモデルはChatGPTの技術を進化させ、GPT-3.5からさらに高度なシステムに移行しました。「生成事前学習変換器(Generative Pre-trained Transformer)」、すなわちGPTは、人間に似た文章を模倣するために人工ニューラルネットワークを利用する深層学習アーキテクチャを指します。
OpenAIによると、GPT-4は創造性、視覚入力、長文処理の3つの重要な領域でChatGPTを上回っています。創造性においては、音楽、映画の脚本、技術文書などのさまざまな形式でプロジェクトを生成・協力する能力で優れています。また、長文の処理能力も大きな特徴です。GPT-4は最大128,000トークンのユーザー入力を処理でき、ウェブリンクからのテキストと相互作用することも可能です。これにより、長文コンテンツの生成や長時間の会話を持続する能力が向上しています。
さらに、GPT-4は画像を処理できるため、視覚的なプロンプトに応じることができます。たとえば、料理の材料の写真を分析し、見えたものに基づいてレシピを提案することができます。ただし、動画入力が同様にサポートされているかどうかは不明です。
重要なのは、GPT-4は前モデルに比べて安全性を大幅に改善して設計されている点です。内部的には、40%の事実ベースの応答が増加したと報告され、禁止されたコンテンツへの対応は82%減少しました。この進展は、広範なトレーニングに基づいており、AI安全性とセキュリティの専門家50人以上と協力して実施されました。
GPT-4の活用方法
GPT-4は、OpenAIの全ユーザーがアクセスできるようになっています。無料プランのユーザーは、3時間のウィンドウ内で約80回のチャットに制限され、それを超えるとGPT-4oミニに切り替わります。GPT-4へのアクセスを強化し、DALL-Eで画像を生成したい場合は、月額20ドルのChatGPT Plusサブスクリプションを選択できます。
購読を躊躇している方には、MicrosoftのBing ChatがGPT-4の機能を無料で体験する手段を提供しています。MicrosoftはGPT-4をBing Chatに統合していますが、一部の機能は欠けており、サービスにはMicrosoft独自の機能が含まれています。Bing Chatは無料で利用可能ですが、15回のチャットと150回のセッションに制限されています。
GPT-4のリリース日
GPT-4は、2023年3月13日に公式に発表されました。その後、ChatGPT PlusのサブスクリプションやMicrosoft Copilotを通じて提供され、開発者向けにはAPIとしても利用可能です。DuolingoやBe My Eyes、Stripe、Khan Academyなどの企業がすでにサービスにGPT-4を統合しています。GPT-4の機能の初公開デモはYouTubeでライブ配信されました。
GPT-4oミニとは?
GPT-4oミニは、OpenAIのGPT-4モデルラインの最新バージョンであり、よりシンプルで高頻度のタスク向けに最適化されています。2024年7月にリリースされたGPT-4oミニは、GPT-4oを使用する際の3時間上限を超えた場合のデフォルトモデルとしてGPT-3.5に取って代わりました。
GPT-4はGPT-3.5より優れていますか?
以前、ChatGPTの無料版はGPT-3.5に基づいていましたが、2024年7月以降、GPT-4oミニに移行しました。これは、GPT-3.5 Turboに比べて優れた性能を示し、より総合的に質問に応答し、追加の保護を提供し、簡潔な答えを提供します。また、60%コスト効率が良くなっています。
GPT-4 API
開発者向けには、GPT-4はAPIとして利用可能で、過去にOpenAIに対して少なくとも1回の成功した支払いを行ったユーザーが対象です。APIは、さまざまなGPT-4バージョンと旧式のGPT-3.5モデルを含んでいます。OpenAIは、GPT-3.5は今後も利用可能ですが、最終的には段階的に廃止されることを発表しました。
GPT-4は性能が劣化しているのか?
GPT-4は初期のリリース時には大評価されていましたが、その後数ヶ月で応答品質が低下したとの報告もあります。開発コミュニティの著名な人物からの観察により、OpenAIのフォーラムで議論が起こりました。OpenAIの幹部は、これらの懸念は大部分が根拠のないものであり、知覚される低下は主観的なものであると主張しています。新しいモデルバージョンは常に改善されているとのことです。
しかし、ある研究によれば、実際にGPT-4の精度が低下しているという実証的な証拠があります。これは、精度が2023年3月の97.6%から6月には2.4%に減少したことを示しています。この結果は決定的ではありませんが、ユーザーが実際に性能の変化を実感していることを支持しています。
GPT-4の視覚入力機能
GPT-4の最も注目されている機能の一つは、視覚入力の処理能力です。画像をアップロードして分析するのは非常に簡単で、ドキュメントを添付するのと同様に、コンテキストウィンドウのクリップアイコンをクリックし、画像ソースを選択して画像を添付するだけで有意義なインタラクションが得られます。
GPT-4の制限
OpenAIが主張するGPT-4の進化にもかかわらず、このモデルにはいくつかの制限があります。前のモデルと同様に、GPT-4は社会的バイアス、不正確さ、敵対的なプロンプトによる課題に対処しています。そのため、完璧ではありません。多くの事例がオンラインでこれらの短所を示していますが、OpenAIは問題解決に引き続き取り組んでいます。全体として、GPT-4は以前のモデルに比べて情報の創出が少なくなっています。
もう一つの重要な制限は、GPT-4のトレーニングデータが2023年12月までの情報にしか対応しておらず、GPT-4oおよび4oミニは2023年10月でカットオフされていることです。それにもかかわらず、GPT-4のウェブ検索機能により、新しい情報をインターネットから見つけ出し、取得することができます。GPT-4oがリリースされたことで、ユーザーは次のGPT-5モデルを期待することができます。