NewsHub.JP

NewsHub.JP

AI東大理3首席超えが示した受験突破後の競争軸と人間の評価軸

by 山本 涼太
URLをコピーしました

はじめに

AIが東京大学理科三類で「首席合格」したという見出しは、単なる話題作りでは片づけにくい重みがあります。2026年4月27日に公開されたLifePromptの検証では、ChatGPT 5.2 Thinkingが理科三類で503.59点、Gemini 3 Pro Previewが496.54点を記録し、合格者最高点453.60点を上回りました。共同通信系の記事でも、理系総合で503点、数学満点、英語9割という骨格は一致しています。

ただし、この出来事を正しく読むには二つの視点が必要です。ひとつは、推論モデルの進化が日本最難関級の記述式入試でも可視化されたという技術面です。もうひとつは、理科三類の選抜が面接を含む総合判定であり、医療人材の評価は学力試験だけでは完結しないという制度面です。この記事では、得点の事実関係、そこに至った技術的背景、そしてなお残る人間の評価軸を順に整理します。

首席超えの事実関係

点数比較の輪郭

まず確認すべきなのは、「首席」という表現の意味です。今回の比較対象は、東京大学入試の合格者最高点です。UTaisaku-Webに整理された2026年度データでは、理科三類の合格最低点は346.0900点、合格者平均点は377.7881点、合格者最高点は453.6000点でした。LifePromptはこの最高点とAIの得点を比較し、ChatGPT 5.2 Thinkingが503.59点、Gemini 3 Pro Previewが496.54点だったと公表しています。共同通信系の記事でも、理系の理科1〜3類で503点、文系で452点という総得点が報じられています。

東大側の難度を見ても、数字の重みは軽くありません。2026年度の理科三類は募集97人に対して志願者372人で、志願倍率は3.84倍でした。一般選抜の概要ページでも、理科三類だけは試験が3日目まで続くこと、そして面接試験の結果を含めて総合的に判定することが明記されています。つまり、今回の「首席超え」は少なくとも学力試験の総得点比較としては非常に大きい一方、大学の正式な入学判定全体をそのまま再現したわけではありません。

それでもインパクトが大きいのは、進歩の速度です。共同通信系の記事は、2024年の東大入試では全科類不合格だったと伝えています。そこから2025年にはLifePromptの別検証で「理科3類合格水準」へ到達し、2026年には最高点超えへ進んだわけです。問いはもはや「AIは東大に受かるのか」ではなく、「人間の上位層に対して、どの領域でどれだけ差をつけるのか」に変わりました。

実験条件と採点体制

今回の検証が単なる一発芸ではない理由は、入力と採点の条件が比較的はっきり公開されていることです。LifePromptによれば、入試問題のPDFをページごとに画像化し、API経由で各モデルに送信しました。チャット画面で人が都度操作するのではなく、専用の自動受験システムで処理し、記述式答案はそのまま採点に回しています。ブラウジングは使わず、高校課程までの知識で解くこと、数式はLaTeX形式で出すことなど、共通の条件を与えたとしています。

採点はさらに重要です。記述式問題はモデル自身の自己採点ではなく、河合塾と河合塾グループのKIESの協力で、講師が人間受験生と同じ基準で採点したと説明されています。共同通信系の記事でも、記述式を含む解答を河合塾講師が採点したと報じられています。大学当局が公式にAI答案を採点したわけではないものの、学力比較の手続きとしてはかなり実務的です。

一方で、条件の違いも意識しておくべきです。AIは疲労せず、消しゴムも不要で、画像を即座に構造化できます。しかもAPIと推論モードをフルに使う環境は、人間が試験会場で受ける条件とは当然異なります。このため、今回の結果は「同じ問題に対する推論性能の比較」として読むべきで、「人間受験生と完全同条件の模擬入試結果」とまで言い切るのは慎重であるべきです。

推論性能の跳躍

数学満点を支えたモデル進化

なぜ2026年に一気にここまで伸びたのか。最大の鍵は、推論モデルの成熟です。OpenAIは2025年12月11日にGPT-5.2を公開し、AIME 2025で100.0%、GPQA Diamondで92.4%、FrontierMathでも従来より高い成績を示しました。Googleも2026年2月19日にGemini 3.1 Proを発表し、複雑で多段の課題向けに中核知能を強化したと説明しています。AnthropicのClaude Opus 4.5も2025年11月24日に公開され、コーディングやエージェント処理で強みを打ち出しました。

東大入試、とくに理系数学は、途中式の整合性、方針選択、場合分けの漏れを同時に要求します。LifePromptの2026年検証は、今年の東大・京大数学で満点が続出した点を最大の変化として強調しています。2025年の同社検証では、ChatGPT o1の東大理系二次は275/440点でした。2026年検証では、理科三類の総得点が500点台へ乗り、同社は昨年の理系数学38点から満点への跳躍にも言及しています。単純な計算精度ではなく、長い推論鎖を崩さずに維持する力が伸びたとみるのが自然です。

ここで重要なのは、学習データの量だけでなく、推論の仕方そのものが変わったことです。OpenAIはGPT-5.2を「professional work and long-running agents」のためのモデルとして位置づけています。単発の穴埋めではなく、方針立案、途中検証、自己修正を含む長いタスク処理に最適化されたことが、東大数学のような問題形式と相性を持った可能性が高いです。山本涼太氏の専門領域に引きつければ、これはモデルの知識量競争よりも、推論アーキテクチャと運用設計の競争が主戦場になったことを示しています。

ベンチマークと入試問題の接点

もうひとつ見逃せないのが、標準ベンチマークと実社会タスクの距離が縮まりつつある点です。AIMEやGPQAのようなベンチマークで高スコアを取っても、入試のような混在問題では別物だという見方は根強くありました。実際、これまでは画像、長文、論述、図表、計算が混ざるだけで性能が崩れやすかったからです。

しかし2026年の共通テスト検証では、LifePromptは満点が9科目に達したと報告しています。しかもGPT-5.2 Thinking、Gemini、Claudeの3モデルが、それぞれ異なる強みを見せました。Geminiは画像理解、Claudeは長文文脈、GPTは高精度推論という分業が見え、マルチモーダル処理と推論処理が実用レベルで接続され始めています。東大二次で首席点を超えたことは、ベンチマーク上の改善が日本語の高難度試験にも転写され始めた証拠だと受け止めるべきでしょう。

ここで一歩引いて見ると、2011年に始まった国立情報学研究所の「ロボットは東大に入れるか」プロジェクトは、2016年度までに大学入試センター試験で高得点を取り、2021年度に東大入試突破を目標としていました。当時は教科ごとの要素技術を組み上げる発想でしたが、2026年の主役は基盤モデルです。十数年で、問題ごとの専用AIから、汎用モデルに問題を読ませる方式へ主導権が移ったことも、このニュースの本質です。

なお残る人間の評価軸

論述・図示・構成力の壁

首席超えといっても、AIが全方位で完璧だったわけではありません。共同通信系の記事は、世界史などの論述問題では得点が2.5割にとどまったと伝えています。LifePromptの2026年共通テスト分析でも、図の矢印、地図の濃淡、心情の揺れといった要素で誤答が目立ったと説明されています。文字列として扱いやすい問題ほど強く、視覚情報や人間的な含意が絡む問題では不安定になる構図は、今回も残りました。

この弱点は、単に「日本語が苦手」という話ではありません。論述問題では、知識があるかどうかよりも、出題者の要求に合わせて要点を圧縮し、捨てる情報を判断し、採点者が読みやすい構成に整える力が問われます。AIは長く正確に書くことは得意でも、採点基準にぴたりと合わせて削る作業ではまだぶれます。画像やグラフも同様で、視覚情報を抽象化して言語化する段で誤差が残ります。人間の受験ではこの「ぶれを抑える技術」が合否を分けます。

理科三類面接と医療適性

さらに大きいのが、理科三類固有の評価軸です。東京大学の一般選抜ページは、理科三類では面接試験の結果を含めて総合的に判定し、将来医療や医学研究に従事するのにふさわしい資質を持つ受験者を合格者とすると明記しています。つまり、503.59点という数字は非常に強いシグナルですが、それだけで「医師になる適性」や「医学研究者としての資質」まで証明したわけではありません。

この点はAI企業自身の評価設計とも通じます。OpenAIが2025年5月に発表したHealthBenchは、医療向け評価は試験問題を超え、現実の会話、曖昧さ、安全性、文脈判断を含むべきだと整理しています。理科三類が求めるのも、まさにそうした広い能力です。患者や家族との対話、説明責任、倫理判断、チーム医療、予測不能な状況での優先順位付けは、筆記試験の高得点だけでは測れません。今回のニュースは、AIが学力試験の相当部分を侵食したことを示す一方、専門職の選抜が依然として複合評価である理由も逆照射しています。

注意点・展望

この話題でありがちな誤解は二つあります。第一に、「AIが東大理3で首席なら、受験勉強は無意味になる」という短絡です。実際には、入試は選抜制度であり、AIが高得点を出せることと、人間の学習経験が不要になることは別問題です。むしろ、正解を出す機械が一般化するほど、人間には問いを立てる力、検証する力、対話する力が強く求められます。

第二に、「もうAIは人間を全面的に超えた」という誤解です。今回の結果は、構造化された高難度知的作業でAIが上位人間を超えうることを示しました。ただ、制度適合的な論述、曖昧な感情理解、図表の細部、面接、専門職倫理はまだ別のゲームです。しかもモデルの公開日と試験日の前後関係からみる限り、2026年本番問題そのものを事前学習していた可能性は低いと考えられますが、これは公開情報に基づく推定であり、完全にブラックボックスを解体したわけではありません。

今後の注目点は三つあります。ひとつは、東大や京大のような記述式入試だけでなく、法科大学院、国家試験、企業実務のケース面接で同様の優位が再現されるかどうかです。二つ目は、大学側がAI前提の出題へどう移るかです。図表読解、口頭試問、根拠提示、途中経過の追跡など、評価設計の比重は確実に変わるでしょう。三つ目は、企業がこの能力をどう実装するかです。高精度だが熟考型のモデルと、高速だがやや粗いモデルをどう使い分けるかは、SaaSや業務自動化の競争力に直結します。

まとめ

AIの東大理科三類「首席超え」は、生成AIの歴史の中でも象徴的な節目です。2024年の全科類不合格、2025年の合格水準到達、2026年の最高点超えという流れは、推論モデルの進化がわずか2年で受験の風景を塗り替えたことを示しています。とくに数学満点と500点台到達は、基盤モデルが日本語の最難関記述試験でも通用する段階へ入ったことを印象づけました。

一方で、今回の数字が示したのは学力試験の強さであって、人間の価値全体の終焉ではありません。論述、図示、面接、医療適性、安全性評価といった領域では、なお別の評価軸が機能しています。読むべき本質は、AIが人間を不要にしたことではなく、人間側の評価制度と仕事の設計を再定義する段階に入ったことです。大学も企業も、これからは「AIに解ける問題」と「人にしか任せられない判断」をより明確に切り分ける必要があります。

参考資料:

山本 涼太

AI・半導体・先端技術・SaaS

AI・半導体・通信などの先端技術とそれを事業化する企業を取材。技術の本質と市場インパクトをわかりやすく解説する。

関連記事

最新ニュース

経産省M&A新指針 高値競争より経済安保を問う買収判断軸の再設計

経産省は2026年夏にも企業買収指針のQ&Aを公表し、高値TOBでも経済安全保障や供給網、技術流出リスクを取締役会が検討できる考え方を明確にする見通しです。2025年に日本企業関連M&Aは6259件、上場廃止は125件へ拡大。価格偏重の修正が市場と企業統治に何を迫るか、その本質と実務への影響を読み解きます。

大口得意先の暴言はカスハラか 会社が取るべき線引きと実務対応策

2026年10月に企業のカスハラ対策が義務化されます。大口得意先からの暴言や執拗な要求は、売上への配慮から現場が抱え込みやすいテーマです。厚労省指針では取引先担当者も対象に含まれ、東京都調査では被害内容の最多は継続的な言動でした。正当なクレームとの線引き、記録、複数対応、取引継続判断の要点を解説します。

脱中国レアアース供給網へ日米豪欧が動くテキサス争奪戦の実相と限界

中国が2025年4月に重希土類7品目と関連磁石の輸出規制を強化し、供給網再編が一気に現実課題となった。米テキサスではMP Materialsが年1万トン級磁石拠点を計画し、日本は豪Lynasと年5000トン契約を確保、欧州は2030年に戦略原料の25%再資源化を目指す。脱中国レアアース戦略の実力と盲点を読み解く。

中国包頭レアアース集積の実像と輸出規制が映す対日供給網リスク

中国・包頭は国家級高新技術企業158社を抱え、2025年は稀土産業45案件と産業総生産額1300億元を掲げる中核拠点です。4月4日の輸出規制と追跡制度で、日本企業は最終用途や顧客情報の提示を迫られました。IEAが示す中国の永久磁石生産94%支配を踏まえ、包頭の産業集積がなぜ対日供給網リスクと直結するのかを解説します。