あけましておめでとう御座います。
または、 初めまして。
さて、 本題に入ります。
昨年度末あたりまで生成 AI の話をすると、
だいたい生産性の話になりました。
基本的に決裁者は
・売上が上がるか
・経費が下がるか(人件費込み)
の目線でほとんど見ています。
その上にたくさん綺麗事が乗っています。
どちらも真実ですが、基本は「売上が上がるか」、「経費が下がるか(社員=従業員のこと=人件費は経費)」で考えるため
生成 AI =生産性への巨大インパクト
という文脈で捉えがちな傾向にあります。 これ正解です。
一方でニュースや意識高い系メディアでは
工数削減、内製化、受託単価の下落、
ホワイトカラーの仕事がどうなるか。
このような文脈で語られた一年でした。
どれも正しいし、 重要です。
ただ、 2026 年にいちばん問題になるのは、
そこではないと思っています。
日常に AI が混ざるメリットデメリット
危険なのは、
生成AIが「日常コミュニケーション」に
溶け込みきってしまうことです。
でもまだAIエージェントとして、業務ツールとしてではなく、どちらかというと
例えばあなたの身の回りの人たちのスマホの中の相談相手として、
確認役として、
判断補助として使われること。
少し具体的な話をします。
僕の知り合いに、
都内に1億以下の中古マンションを購入する人がいました。
その際に親から数百万円を年末に
口座振込でもらってしまった人がいます。
本人は、
「住宅取得資金の非課税枠に入る」
と勘違いしていました。
実際には、
非課税になるのは新築、
もしくは中古でも
床面積・築年数・耐震基準など
複数の条件を満たした場合だけです。
今回のケースでは、
一般論として贈与税が発生します。
しかも、
事前に設計していれば
贈与税を抑える、
あるいは回避できた可能性もあった。
※ 贈与税の非課税枠は年 110 まで基礎控除がある。
※ ただし故意的に設定額を年を跨いで贈与するのはよろしくない。(ダメ)
つまりこれは、
税金を払ったという話だけでなく、
機会損失の話でもあります。
ここで重要なのは、
この人が生成AIを使って
情報収集していたことです。
ただし、
背景や物件など前提条件を入れず、
会話ベースで、
それっぽい回答を
信じてしまった。
冷静に考えたら
不動産屋の仲介業者(宅建持ち)や司法書士に無料で相談でき、
さらにメールなどで文面に残せるのに、
目の前のスマホのAIの言うことと自分のプロンプト能力を「当たり前に」信じてしまったそうです。
なにも生成 AI は嘘をついたわけではありません。
一般論としては、 非課税になるケースも確かに多くあります。
でも、
「あなたの条件ではどうか」
という判断は、
どこにも入っていなかった。
これは、
生成AIにきちんとしたチューニングを施さず、
前提を与えず、
確認プロセスも設けずに
使った結果です。
しかもそれをした本人はおそらく多くの人から見て
「社会一般的にハイキャリアで年収も高く地頭も良くコミュ力も高く仕事ができる人」 なんです。
僕から見てもそうです。
こういうトラブルは、
今後、 一般人の間で確実に急激に増えます。
そもそもの技術的な話をします。
現在主流の生成AI、とくにLLMはディープラーニングを基盤とした確率的言語モデルです。
言ってしまえば、トランスフォーマーアーキテクチャを用い、膨大なトークン列から次に来る確率が最も高い単語を逐次生成しているだけです。
判断しているわけでも、 理解しているわけでもないんです。
これは技術者であれば誰でも知っています。
(と思っていましたが最近の「AI導入支援」や「それAIでできます」系を謳ってる企業の失敗事例をたくさん見てると違ったようです。
現役エンジニアのTAM LABO代表の権上あたりはブチギレでプンプンそうですね。業界のために良くないです。)
ここで一つ問題があります。
ユーザー体験(UX)としては、スマホでチャットやSNSをする感覚で「賢い信用できる人格が判断しているように見える」 ということです。
現在の AI ツールの UI/UX は RLHF やプロンプト設計によって、 人間の相談相手として極めて自然に振る舞う仕様になっています。
厄介なことに技術的に理解している人ほど、 この UI が生む錯覚を過小評価しがちです。
そんなの知ってるわと思った人ほど危険。 もはやビジネスリテラシーが低いと言えます。
よくある反論に、 「RAG を入れればいい」 「ガードレールを引けばいい」 というものがあります。
これは正しいです。
たとえば業務システムとして、 前提条件が明示され、 入力が制御され、 出力が検証されるなら、 ハルシネーションは理論上かなり抑えられます。
ただし、 それはあくまで業務プロセスとして設計された場合に限ります。
問題は実際のビジネスの現場で起きます。 とくにエンジニアなどの技術者ではなく、 給与の高い傾向にあるコミュ力が高く要領の良い上流人材を想定して考えてみてください。
Slack や LINE、 日常的なチャット文脈では、
入力は曖昧で、 前提は省略され、 検証はされない。
技術的に制御可能でも、 運用上は無制御になる。 これはアルゴリズムの問題ではなく、 UX と人間行動の、 そして体験デザインレベルの問題です。
そうなると、 技術者からよく出るのが 「最終責任は人間が取る設計にすればいい」 という意見です。
これも理屈としては正しいですし、 多くの大企業ではすでにその前提で組織がデザインされつつありますよね。
でも、 考えてみてください。 あなたの職場の担当者たちの給与額やインセンティブ設計を考えてみてください。 冷静に。
正直な話、 AIの弱点ではなく「人間という弱点」を踏まえてインセンティブ設計をしないと現場では AI の出力に対する責任は徐々に薄まります。 ようは人間はうまくインセンティブ設計をしないと時給を最大化しようとする生き物であり、 これは変わりません。
誰がその判断をしたのか。 なぜそれを信じたのか。 どこで確認したのか。 生成 AI が介在した瞬間にログは残っても、 心理的な責任は分散します。
何度も書きますがこれは技術ではなく、 「組織設計」や「行動経済学」の話です。
場合によっては技術者がいちばん危ないのを担当者や経営者は理解した方が良い
皮肉な話ですが、 生成 AI やAIエージェントの罠に一番ハマりやすいのは経営者のように思えてじつは現場の技術者だと一部で言われています。
モデル構造を知っている。 限界も知っている。 だから大丈夫だと思ってしまう。
でも、 実際に使うときは忙しいし、 疲れている。 眠い。 給料あげたい。 時給を最大化したい。 モテたい。 サラリーマンやめたい。
などなど頭はバカで楽な方に流れます。 どんなに学歴が高くても、 どんなに綺麗なキャリアの人でも同じです。
その瞬間に出てくるのは、 理論ではなく習慣です。 そして習慣は、 企業ごときの設計思想より強い。 これは事実です。
ここでビジネスの話に戻します。
生成 AI の普及で、 受託開発の単価は確実に下がっています。 これはこの数年でさらに劇的に下がる、 または前提が変わるでしょう。
内製化のハードルも下がった。これは事実ですし、止まりません。
ただし、 内製化が進む一方で、 判断を外注していた部分までAIに任せ始めている。
その結果、 「作れるけど決められない」 組織が増えています。 そして増え続けます。
生成 AI は賢いツールではありません。 判断をしなくても前に進めてしまうツールです。
AI が仕事を奪うとかそんな解像度で話してる人は論外
2026 年の問題は、 AI が仕事を奪うことではありません。
判断を曖昧にしたままでも日常が回ってしまうことです。 ビジネスでもプライベートでも全てに侵食してきます。 スマートフォンとおなじです。 あなたはお風呂やトイレにスマホを持ち込んでいませんか?食事中や寝る前にいじってませんか?同じように AI が日常に入ってきます。
生成 AI を業務ツールとして使うのか、 思考を代行させる相手として使うのか。 この線引きを自覚的にできる人と、 できない人。 その差が、 これからの IT 人材、 ビジネスパーソンの価値を分けていくということです。
便利さの話は、 もう十分にされました。
そろそろ、 危険性の話をちゃんとしたほうがいいと思っています。
想定される批判や質問に対する質疑応答を最初にしておく
この手の話をすると、 自称 IT リテラシー高い人たちから、 だいたい同じ種類の反応が返ってきます。
これは内容というより、 立場の違いがそのまま言葉になる感じです。
あらかじめ、 いくつか拾っておきます。
これは僕自身もクライアントワークにおいて AI をビジネスに用いることは多いので、 覚悟やスタンスを明確にしておくことにも通じます。
はい、 その通りです。 完全にそうです。 拍手。 論破されました。 あなたの勝ちです。 お家でソシャゲの続きをどーぞ。 あとでピザとコーラを届けますね。
ただ、 ここで一つだけ補足すると、 生成 AI は 「リテラシーが低い人を選別してくれるツール」 ではありません。 むしろ逆で、 リテラシーが低くてもそれっぽく使えてしまう。 → しかも、 自分がどこで間違えたかが分かりにくい。
ということです。
これは従来の IT ツールとは性質が違います。
検索エンジンなら、 一次情報に当たる、 複数サイトを比較する、 という動作が前提でした。
生成 AI は、 一つの 「もっともらしい答え」 を最初から差し出してきます。
リテラシーの問題であることと、 構造的に事故りやすいことは、 両立します。
はい、 その通りです。 完全にそうです。2度目の拍手。ちょっとズレてるけど論破されました。
あなたの勝ちです。 お家で YouTube 視聴の続きをどーぞ。 あとでチーズ牛丼と特茶を届けますね。
結論、 おっしゃる通り業務では、 ほぼほぼ防げます。
前提条件を明示し、 制約を入れ、 出力形式を固定し、レビュー工程を入れる。
ここまでやれば、 生成 AI は非常に優秀です。
ただ、 おそらく日常コミュニケーションでは誰もそんな使い方をしません。
疲れているとき、 急いでいるとき、 仕事や雑談の延長で聞いたとき。
プロンプト設計が崩れるのは、 そういう瞬間です。
問題は、 「正しい使い方をすれば安全」 という事実が、「普段も安全」 という誤解にすり替わる人間の脳の構造です。
はい拍手パチパチ。理屈では、そうです。今日も必死に FANZA みてますか?ノブロックの佐久間さんのスタンスに憧れてるただの弱者男性的なデブになってませんか?とりあえずあなたには特茶とTENGAを送りますね。
まず、 何度も本文で書いてますが人は、 理解していることと振る舞えることが必ずしも一致しません。 だから人間なんです。
だから資本主義の中で役にたつ能力があやふやなんです。
車の構造を知っていても、 スマホを見ながら運転する人がいなくならないのと同じです。
LLM は確率モデル。 判断していない。 理解していない。 それを知っていても、 自然な文章で返されると、 人は一瞬、 委ねてしまうんです。
これは知識の問題というより、 認知と UI の問題です。
設計上は正解です。 ただ、 実務では判断は徐々に曖昧になります。
AI が下書きを出す。AIが整理する。AIが選択肢を並べる。 そのうち、「それでいい気がする」という感覚だけが残るんです。あなたが全部やるなら良いですよ?今の日本のITやWEB業界の構造見てみてくださいよ。
SESとかいまだ放置されてますよ?そこに生成AIが入ってくるんです。とりあえず仕様書渡された「契約社員」 みたいな人に責任が伴いますか?
世の中には誰が決めたのかは、 はっきりしない。 責任の所在は、 仕様書ではなく、 現場の空気で決まってる下請け企業は腐るほどあります。 そいつらに使わせるのが危険なんです。
いいですねー好みの反論です。 あなたの顔面が狐顔で可愛ければね。 でもおそらくブサイクなのでそれは違います。僕はあなたと同じで「他人にはルッキズム」で生きてるんで。自分の顔鏡でみるのやめてます。
さて、 結論からいうと AI はどんどん使うべきです。 むしろ、 使わないほうがリスクになる場面が急速に増えています。 食えなくなりますから。 まじで。
ただし、 思考を短絡させる用途と、 判断を伴う用途は切り分けたほうがいい。
生成 AI は、 考える前の整理には向いている。 決める瞬間の代行には向いていない。
この線を自分の中で引けるかどうか。 それだけの話です。
あなたはうーん。 勇敢だからグリフィンドール!!
でもないな、レイヴンクローでもハッフルパフでもスリザリンでもありません。 ホグワーツから帰ってください。
でもね、半分はそうです。 同感です。 書きながら思いました。
電卓も、Excelも、検索エンジン(広義な意味でインターネット)も、同じことを言われたでしょう。
ただ、生成AIは一つだけ決定的に違います。 それは、
「なんだかそれっぽく言葉で返してくること」
です。
この「それっぽく返してくる」はむちゃくちゃ厄介で、 僕たち人間の思考の形に直接入り込んでくるような錯覚に陥ります。
だからこそ、 業務より先に、 日常コミュニケーションのほうが危うくなる。 とくに家族や恋人や友人関係に大きな影響をもたらす。
ここが、 今までと一番違う点だと思っています。
生成 AI は、 正しいか間違っているかよりも先に、 納得させるのが上手なんです。 おそらくあなたよりも、 僕よりも。
その上手さを武器として使うのか、 判断力を削る呪物として扱うのか。
そこを考えずに便利さだけを受け取ると、 たぶん、 さっき書いたような小さな事故はこれからいくらでも起きます。
大きな破綻ではなく、 じわじわ効くやつが一番、 厄介です。
それでは今日も頑張りました。ここまで読んだあなたにだけ、 おやすみなさい☔️