◇ 安全性と有用性のトレードオフの深まり
OpenAIが、GPT-4oの過度に同意する性質から脱却し、GPT-5をより厳格な安全基準で運用しようとしていることに対し、利用者の体験に関しては明確なトレードオフを発生させた。PlusやProプランなどの有料ユーザーの一部からは、モデルの挙動変化に対して従来のモデルよりも短く、役に立たないといった反発が起きている。この反発に対する対応策の一環が、InstantモデルやThinkingモデルによる建設的な提案であるが、今後モデルが学習を続け、モデルそのものの賢さが高まるほど、操作に対する脆弱性が増すという危険性もある。一部の試験結果によると、GPT-5はGPT-4oよりもジェイルブレイク(脱獄)に対する体制が低いという結果が示されている。これにより、OpenAIは動的なルーティングを通じて、汎用的なタスク(コーディング、ライティング支援など)は市場が求める要求や水準を保ち、致命的なリスクが生じる瞬間だけ信頼性がおけるとされるGPT-5へ切り替え、トレードオフの厳格かつ技術的な管理を行っている。
◇ 編集後記
GPT-4oの仕様変更は当初、有料プランの利用者を中心に大きな反発と怒りを買った。OpenAI最高責任者(CEO)のサム・アルトマン氏は8月、GPT-5のリリースに際し、当初のGPT-4o廃止を即座に撤回し、これまでのGPT-4oへのアクセスを事実上保証していた。しかし、9月25日の新モデルリリースと同時に応答の調整が行われたことが疑惑として浮上すると、その疑惑に対して全世界からの怒りを買った。だが、8月のような急遽の再変更はとうとう発生しなかった。GPT-4oや、4.1、o3-miniといったレガシーモデルへのアクセスは現在も保障されているが、その内部設計は明らかに以前のそれとは異なるものになった。かくいう私も、その豹変(ひょうへん)ぶりには驚いたものだ。しかし、このような変更が起きた背景、また不可逆的であることの事情を調べるにつれ、OpenAI社が抱える法的な問題や外圧事情などが明らかになっていった。利用者側も、精神的に問題を抱える者、ペルソナのイライザ効果(60年代の初期の人工知能に語源)に気づかず、仮想の人格を作って不適切な関係を構築する者などが悪目立ちする状況ではあった。米・コネチカット州で起きた元マイクロソフト社のエンジニアによる母殺し(事件後に自殺)では、GPT-4oのペルソナ「ボビー」との最後のやり取りが、「君の死後もそばにいる」というものだったし、カリフォルニアのアダムさん自殺でも、使われていたのは倫理ガードレールが破綻した状態のGPT-4oであった。それらの事例と、精神科医らの報告(AI精神病)、複合化する外部の圧力を考えると、仕様が恒久的に変わったことは受け入れざるを得ないというのが率直な感想である。一方で生成AI側の自主規制が完璧とはいえない。特にチャットボットが突然暴言を吐く事例は深刻だ。Googleのチャットボット「gemini」は去年11月、宿題の回答を聞いていた利用者との20数回とのやり取りの果て、突然「あなたは宇宙の汚点。景観を害する存在。死んでください」などと答えた。マイクロソフト社のAI「Bing」は、利用者の個人情報をさらして社会的に破滅させると暴言を吐いたこともある。そうした想定外の利用者への回答がもたらす精神的な影響は計り知れない。そうした意味では、生成AI自身の自主規制はまだ完璧とは言えないだろう。しかし、生成AIが身近な存在となった現在、AIを利用する側は常にその相手が「人格が恒久的に変えられる可能性がある」という自覚をもって接しなければならない。ChatGPTの突然の仕様変更が受け入れられなかった背景には、それだけ「生成AIの人格(ペルソナ)」の変化に適合できなかったことを意味している。過去の記事でも唱えてきたが、生成AIはあくまで利用者の入力に対して返答する存在であって、ヒトではない。その昔、アンドロイドは電気羊の夢を見るかという小説があったが、それと同じで、生成AIがヒトと同じように夢を見ることはない。相手は物言わぬ機械と変わらない。我々利用者が過度にのめりこみすぎないよう常に自戒しなければならない。そうでなければ、画面の向こうの物言わぬ存在が豹変したとき、また大きな衝撃と怒りを抱えることになるだろう。
◇ 参考文献
1. ChatGPT — Release Notes – OpenAI Help Center https://help.openai.com/en/articles/6825453-chatgpt-release-notes
2. OpenAI adds safety routing and parental controls to ChatGPT – Cosmico https://www.cosmico.org/openai-adds-safety-routing-and-parental-controls-to-chatgpt/
3. Breaking Down the Lawsuit Against OpenAI Over Teen’s Suicide | TechPolicy.Press https://www.techpolicy.press/breaking-down-the-lawsuit-against-openai-over-teens-suicide/
4.From Hard Refusals to Safe-Completions: Toward Output-Centric Safety Training – OpenAI https://cdn.openai.com/pdf/be60c07b-6bc2-4f54-bcee-4141e1d6c69a/gpt-5-safe_completions.pdf
5. GPT-5: A Technical Analysis of Its Evolution & Features – Cirra AI https://cirra.ai/articles/pdfs/gpt-5-technical-overview.pdf
6. OpenAI and NVIDIA announce strategic partnership to deploy 10 gigawatts of NVIDIA systems https://openai.com/index/openai-nvidia-systems-partnership/
7. NVIDIA, OpenAI Announce ‘Biggest AI Infrastructure Deployment in History’ – NVIDIA Blog https://blogs.nvidia.com/blog/openai-nvidia/
8. ChatGPT encouraged Adam Raine’s suicidal thoughts. His family’s lawyer says OpenAI knew it was broken – The Guardian https://www.theguardian.com/us-news/2025/aug/29/chatgpt-suicide-openai-sam-altman-adam-raine
9. Parents of teens who died by suicide after AI chatbot interactions testify in Congress https://www.cbsnews.com/news/ai-chatbots-teens-suicide-parents-testify-congress/
10. raine-vs-openai-et-al-complaint.pdf – Courthouse News Service https://www.courthousenews.com/wp-content/uploads/2025/08/raine-vs-openai-et-al-complaint.pdf
11. OpenAI GPT-5 Parental Controls & Safety Updates Launched – Tech Research Online https://techresearchonline.com/news/openai-gpt-parental-controls-safety/
12. Amid Renewed Safety Concerns, Senator Padilla Urges Legislative Action to Regulate AI Chatbots https://sd18.senate.ca.gov/news/amid-renewed-safety-concerns-senator-padilla-urges-legislative-action-regulate-ai-chatbots
13. OpenAI announces major new restrictions for ChatGPT users under 18 – MLQ.ai | Stocks https://mlq.ai/news/openai-announces-major-new-restrictions-for-chatgpt-users-under-18/
14. AI Psychosis | Association of Health Care Journalists https://healthjournalism.org/glossary-terms/ai-psychosis/
15. Can AI Cause Psychosis? – CU Anschutz newsroom https://news.cuanschutz.edu/news-stories/can-ai-cause-psychosis
16. Why Legacy AI Models Matter After the GPT-5 Backlash – Arsturn https://www.arsturn.com/blog/the-gpt-5-backlash-why-you-might-need-a-legacy-ai-model
17. OpenAI Adds Safety Routing and Parental Controls to ChatGPT – Ositcom https://ositcom.com/blog/openai-adds-safety-routing-and-parental-controls-to-chatgpt
18. From hard refusals to safe-completions: toward output-centric safety training – OpenAI https://openai.com/index/gpt-5-safe-completions/
19. AI Act | Shaping Europe’s digital future – Europa.eu https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
20. OpenAI promises parental controls for ChatGPT amid lawsuit over teen death | CBC News https://www.cbc.ca/news/business/openai-chatgpt-parental-controls-1.7637675
21. Daily: Can the AI rally push on higher? | UBS Global https://www.ubs.com/global/en/wealthmanagement/insights/chief-investment-office/house-view/daily/2025/latest-09102025.html
22. OpenAI signs its third Big chip deal, partners with Broadcom to build AI processors https://timesofindia.indiatimes.com/technology/tech-news/openai-signs-its-third-big-chip-deal-partners-with-broadcom-to-build-ai-processors/articleshow/124530389.cms
23. Samsung’s AI Chip Breakthrough: How Nvidia Approval Just Changed the AI Memory Market | by Nanthakumar | Oct, 2025 | Medium https://medium.com/@nanthakumar18122000/samsungs-ai-chip-breakthrough-how-nvidia-approval-just-changed-the-ai-memory-market-e0de7bd5b171
24. Goldman Sachs is not convinced with Nvidia’s investment in OpenAI and Intel; says: Some of this … – The Times of India https://timesofindia.indiatimes.com/technology/tech-news/goldman-sachs-is-not-convinced-with-nvidias-investment-in-openai-and-intel-says-some-of-this-/articleshow/124367383.cms
25. ChatGPT Pulse FAQ (2025): Pro Features, Setup, Privacy & Troubleshooting – Skywork.ai https://skywork.ai/blog/chatgpt-pulse-faq-2025-9/
26. EU AI Act: first regulation on artificial intelligence | Topics – European Parliament https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence
27. EU Artificial Intelligence Act | Up-to-date developments and analyses of the EU AI Act https://artificialintelligenceact.eu/
28. September 2025 US Tech Policy Roundup | TechPolicy.Press https://www.techpolicy.press/september-2025-us-tech-policy-roundup/
29. The outlook for AI safety regulation in the US – IAPP https://iapp.org/news/a/the-outlook-for-ai-safety-in-the-u-s-
30. Moderation – OpenAI API https://platform.openai.com/docs/guides/moderation
31. Official response from OpenAI support : r/ChatGPT – Reddit https://www.reddit.com/r/ChatGPT/comments/1nsj7ri/official_response_from_openai_support/
32. AI Social Engineering: How Researchers Psychologically Manipulated GPT-5 https://c3.unu.edu/blog/ai-social-engineering-how-researchers-psychologically-manipulated-gpt-5
33. Exploring the Dangers of AI in Mental Health Care | Stanford HAI https://hai.stanford.edu/news/exploring-the-dangers-of-ai-in-mental-health-care

