ChatGPTの仕様変更の背景事情 OpenAIの方針変更

ChatGPTの仕様変更の背景事情 OpenAIの方針変更

◇ Instantモデルへのルーティング

法および精神学的リスクの警鐘を受け、OpenAIは安全機能を強化するために「セーフティルーテイング」を導入した。このシステムは、利用者の感情やリスク状態を検知し、自動的に対応モデルを切り替えるようになっている。このシステムが呼び出されると、GPTはデフォルトのモデルから自動的に切り替わり、高リスクなやり取りにおいて最も安全で信頼できるとされるGPT-5-thinking(Instantに相当する)に自動的に切り替えるようになった。このルーティングは従来の安全対策が長期間の会話や繰り返しのやり取りにおいて劣化するというGPT-4oで露呈した問題に対処するために導入された。特にハイリスクと思われる会話を自動的に振り分け、自殺や他害、精神的なやり取りはInstantモデルに切り替える、またはThinkingモデルから回答させることで、安全ガイドラインに沿った結果とすることを目標としている。自殺問題が発生し、法的規制が実施された以上、この措置は恒久的で、避けられないものとみられる。

◇ 一律拒否から安全応答への変更

セーフティルーテイングで、GPT-5 Instantに重点があるのは、これまでの応答拒否と違い、安全な応答の完遂にある。かつては「申し訳ありませんがそのリクエストにはお応えできません」と回答を拒否していたが、この回答拒否機能が利用者を自傷他害から支援する機会を失う、安全応答が破綻した際に有害な情報を生成するリスクを抱えていた。これに対してGPT-5に新たに組み込まれた機能は、規約違反に対しては強いペナルティ(アカウント停止、削除など)を課す一方、有益性を最大化することを目指している。例えばセンシティブな話題に対して一律で回答拒否をするのではなく、安全な応答の範囲内で建設的な内容を回答するもの。例えば自傷に関する情報を求めても、チャットボットはそれを提供しない代わりに、専門家への相談窓口や安全な情報源を提供するなど、建設的な代替案を提供する。

◇ ペアレンタルコントロール機能の正式導入

セーフティルーテイングの導入と同時に、OpenAIは未成年者の保護を目的とする「ペアレンタルコントロール」機能を正式導入した。これは未成年者の保護を求めた先の議会証言やカリフォルニア州の規制動向に対する直接的な対応と思われる。この機能は、保護者が子供のアカウントと連携することで、詳細な管理設定を行うことができる。例えば精神的な苦痛を検出した場合の保護者への通知、メモリ機能の無効化、チャット履歴の無効化などが含まれる。さらに子供のアカウントにはグラフィックなコンテンツや極端な美容理想に関する議論に対して成人向けより強いフィルタリングが適用される。また、自殺や他害に関する兆候を検出した場合は訓練を受けた人間のチームが状況を確認するセーフティ機能も含まれている。これらの措置は、OpenAIが未成年者に対するAIのガバナンスを技術的措置だけでなく、外部の監視や介入、利用制限などを含めた複合層によって実現していることを示す。

◇ 市場・投資家からの間接的な圧

9月22日、OpenAIとNVIDIAが次世代AIの開発に伴い、少なくとも10ギガワットのNVIDIAシステムを展開するという戦略的パートナーシップの意向書を発表した。AIインフラプロジェクトとしては史上最大で、NVIDIAは新しいシステムの展開につれてOpenAIに最大1000億ドルを投資する意向を示している。また、同時にOpenAIはAMDともマルチギガワットのチップ契約を締結していて、BroadcomとはカスタムAIチップを共同設計する契約を結んだ。これらの契約によって、OpenAIが確保した総コンビュート容量は26ギガワットを超える見込みで、これを原発に換算すると26基に及ぶ規模。また、サムスン電子(韓国)も10月、NVIDIAのメモリチップの承認を獲得したことで、OpenAIのインフラ拡張のサプライチェーンパートナーになった。これらの数百~億ドル規模の投資合意は、OpenAIの市場優位になることへの関心と期待が示されている。しかしこの巨額の投資(26年だけで1140億ドルが必要とみられている)を受けるにあたって、企業としての責任を負い、致命的な失敗を回避し、規制当局からの全面的な停止命令を防ぐことが絶対条件になることを意味している。9月に行われた仕様の変更は、単に未成年者の自殺や殺人事件(コネチカット州で発生したいわゆる「ソエルバーグ事件」)を防ぎ、企業統治としての要件を果たすことを意味している。そのため、なおのことチャットボットの自主的な規制は避けられないとみられる。

◇ Pulseのリリースと収益化

ともに分かち難く・・・

9月25日にOpenAIのプラン「Pro」ユーザー向けにリリースされた「ChatGPT Pulse」(パルス)は、これまでのチャットボットと違い、GPTが非同期でパーソナライズされたリサーチを実施。メモリ機能やチャット履歴、フィードバックなどに基づき、予定の更新や要約を提供する情報合成サービスになっている。Pulseの導入は先の巨額なインフラ投資費用を賄うための収益化戦略の一環と思われる。月額200ドルのProプランを強化し、高付加価値の情報サービスとしてプロユーザーからの継続的な収益の確保に踏み切った。また、Pulseは収益化ツールだけではなく、利用者のメモリやチャット履歴に深く依存しパーソナライゼーションを行うため、OpenAIは利用者の感情的な状態や潜在的なリスクを継続的かつ非同期的にモニタリングするためのデータを豊富に獲得する。このデータはセーフティルーテイング機能を正確かつ的確に起動させるためのデータ収集基盤として動作している可能性を示唆する。

◇ AI規制動向やカリフォルニア州法に関して

OpenAIが安全性を強化し、これまでのユーザー体験を切り離す方向へ舵を切ったのは、世界的なAI規制環境の圧力とも無縁ではない。特にEU(ヨーロッパ連合)のAI Actは世界初の包括的なAI規制法で、25年を通じてその施行に向けた動きが加速している。規制はOpenAIのような一般目的AIモデルを開発する事業者に対して、リスク評価や透明性の確保を要求している。GPT-5の発表と同時にOpenAIが詳細な技術レポートやバイアス研究、ペアレンタルコントロールといった機能を公開したのは、AI Actなどで「高リスク」システムに分類される可能性に備え、また規制に準拠するための自己検閲、透明性アピールのための政治的手段でもある。米では、ドナルド・トランプ大統領のAI規制緩和の動きもみられたものの、州レベルの規制はカリフォルニアのように進んでいて、連邦議会でも複数のAI規制法案が提出されていることから、規制環境は未だ不安定で今後厳格化は避けられない見通し。OpenAIが未成年者規制とセーフティルーテイングを導入した背景事情には、こうしたAI規制に対する法的、政治的動きに対する直接的な対応で、また将来的な事業としてのAI展開を円滑に進めるための必須条件ともなっているのが実情。

コメントを投稿する

メールアドレスは公開されませんのでご安心ください。 * が付いている欄は必須項目となります。

内容に問題なければ、下記の「コメントを送信する」ボタンを押してください。

ページの先頭