今年も残すところ数日。
そんなわけで、ちょっと2025年を振り返っていこうかなと思いまして。
まずは2025年、個人的にもお世話になった「AI」のお話を。
2025年、AIは“すごいおもちゃ”から“現実のインフラ”に近づいた
2025年が始まった時は、正直「AIねぇ・・・」という感じで遠巻きに眺めておりました。
そして1年がたった現在。
年末のいま、「AIを使わない業務」がなかなか想像しづらい、というような状況になってきました。
そう考えると、2025年は「進化」というよりも「定着」の年だったのかなぁ、と思います。
出来はともかく、自然言語でLLMに対してプログラムを作らせれば、それっぽいものを作るようになった現場は、やっぱり未来感ありますよね。
総括その1:モデル競争・・・「一強」は完全に崩れた
2025年当初、やはり生成AIといえばChatGPTでした。まさに世の中、ChatGPT一強。「チャッピー」なんて愛称までついて、モデルがアップデートされたときに「受け答えに人間味が無くなった」と大騒ぎになり。
そんな状況が、いまや完全な群雄割拠です。
- Gemini
- Claude
- OpenAI(ChatGPT)
- xAI(Grok)
特にGemini3.0の登場は、OpenAIをして「Code Red」という緊急事態を宣言させるほどでしたね。nanobananaの画像作成能力は、未だに他の追随を許していませんし。
Claudeもコーディングの世界では他の追随を許さないレベルにあると言われます。
またXの情報を学習データとして使っているという点で独自路線を歩むGrokも見逃せません(使ってみましたが、通常の利用においては他のエンジンとは違った手触りを感じました。こっちの方が好き、という人は多いかもしれません。少なくともChatGPTをチャッピーと呼んで使っている方々には合う気がします)。
そう考えると、2025年当初の「性能競争」から「用途競争」に切り替わったのかもしれません。こうなると、単独のエンジンだけを使うというよりも、複数のエンジンを適材適所で使っていく、という流れは必然なのかもしれませんね。
まぁ適材適所をサービスとして提供しているものもあって、そちらも人気ですねそういえば。
- Genspark
- Perplexity
- Manus
などなど。
総括その2:AIは「使い方」で評価されるようになった
前述の通り、モデル性能はほぼ横並びと言ってよく、それぞれの得意分野はあるにせよ、一般の人が利用するにはそこまで差が無いと考えて良いと思っています(ChatBotとしての利用、という意味で)。
実際に差がでてきたのは「UX」や「統合」、その「運用」のしやすさ、といったあたりかと。
ChatBotとしての利用ではなく、どこに組み込めるか、といったあたりで、差が出てきています。
- Google:Web検索・Docs・Androidとの統合
- Claude:VS Code統合・MCP(!)・Skillsなどの独自機能
- OpenAI:ChatGPT中心(他アプリとの統合といったところで苦戦している)
もはやAIエンジン単体での評価は、あまり意味がなくなってきている、というのはあります。実際、OpenAIがCode Red宣言でGPT5.2を公開したからといって、大きな話題にならないのはそういう背景があるのでは、と個人的には考えています。
総括その3:日本の生成AIの方向性は見えてきた(がそれで戦えるかどうかは別)
日本における生成AIは、独自の国際AIエンジン作成という点では正直かなり差をつけられているという現状があります。総括1、2で書いた内容すら、正直言って対応しきれていません。一番大きいのは「MCP対応」を公式に実施出来ていないという点です。
未だにAPIとなると、生成AI側のアップグレードや仕様変更によって、そもそもアップデートにおけるAPIの互換性を必ずしも保証できないでしょうし、わざわざ日本AIを使うために独自の開発が必要になるという問題をクリア出来ません。
そういう意味で「囲い込み」を考える方式なのはある意味で日本的で、それによって囲い込みどころか自分自身がガラパゴスとして囲われてしまう可能性もあるわけで。
もちろんソブリンAIという強みもある(純粋な日本語対応ができるのは国産AIならではです)のですけれどね。
11月下旬に私自身Blog記事で「日本のAIが!」と持ち上げていましたが、調べれば調べるほど「いやーこれはちょっと・・・」となる現状。
そういう意味でも、日本の生成AI各社の方向性は見えてきてはいる(ソブリンAIとか国内DC利用とか)のですが、結局独自仕様からの脱却ができないという点で、残念ながら「世界で戦えるのか」という疑問は拭えません。
まあそもそも世界で戦うんじゃなく、日本で勝つ(ニッチトップを目指す)という方針なのだろうな、と。うーん。
もちろん、用途と割り切りさえすれば十分に価値はあるのですが。
総括その4:セキュリティとガバナンスは置いてけぼりになりつつある
2025年は「生成AIを使うのは当たり前」という年でした。ただ、実際のところ、それによって蔑ろにされた部分があるのも事実です。
それが「セキュリティ」と「ガバナンス」です。
未だに生成AIの一般的な利用例(?)として
- 議事録の作成
- データの整形
- 見積、提案資料の自動作成
といったものが出てきます。
正直いって、恐怖でしかありません。
これはAIそのものが怖いというより、「使い方が無自覚なまま広がっている」ことへの恐怖です。
だって、業務情報ですよ?業務情報をクラウド型生成AIに渡してるんですよ????
議事録の作成なんて、音声データをそのまま渡して(あるいは文字起こししたものを渡して)作らせるんでしょ?
取引先名称やプロジェクトの機微な情報、金額なんかがクラウド上に放り上げられるわけですよ。
もちろんクラウドAI各社も「AIが学習しないように設定できる」とか「クラウドAIのAPIはデータそのものを保存しない」とかいろいろ言うわけですが、それを信じられるかどうか(そして事実なのかどうか)というのを、利用者が判断できる材料はほぼ無いと言ってよいと思います。
最近Amazonなんかでも購入できたりする、どんな会社が作ってるかわからないような「議事録自動作成マイク」みたいなやつなんて、裏でなんのクラウドAI使ってるか、なんてわからんですよね???
そういったセキュリティがどうなってるかわからないものを、当然のことながら普通の企業なら「使ってほしくない」わけです。でも、日本においては(これまでもそうでしたが)セキュリティは二の次で、便利なら使う、という人が一定数以上いるわけで。
会社が禁止しているものを、自前のパソコン(あるいはスマホ)で使うというのもまたよくある光景だったりするわけで。
こういった「ガバナンス」の管理をどうやって進めていけばいいのか、という問題意識はこれからもっともっと強まっていくんだと思います。
2026年はどうなっていくのか
まぁここまでは2025年のAI事情の総括、という形で書いてきました。
ちょっとネガティブな話を強めに書きましたが、そうでもしないとあまりにも「便利すぎる」ものが突然みんなの身近にやってきた、という状況ですからね。
便利な裏にはちゃんと問題もあり、その問題についてはとにかく早い段階で対策を考えておかないと後で後悔するわけですしね・・・時間は不可逆ですから・・・・。
2026年はもうちょっとポジティブな話がしたいな、と思います。展望については年明けにでも書けたらいいかな、と思います。
それにしても、AI、こんなに身近に使われるような日が来るとはなぁ・・・・。

コメント