ここから書くことは、わかる人には分かりきっている話なので、よく分かっている人は適当にブラウザバックしてください。

 

AIがファクトチェックするんじゃない。人間がファクトチェックするんだ

2025年に入って、多くの人がAIを使い始めました。高度なトライアルの手伝いをさせている人もいれば、ルーチンワークの手伝いをさせている人、質問箱や疑似パートナーのように使っている人、といった具合に使い方はさまざまのようです。

ただ、現行AIを利用するにあたって、必要不可欠なことがあるように思えます。

それは「AIに判断を丸投げしてはならない」です。

 

たとえば最近、Xではgrokにファクトチェックをねだるポストをたくさん見かけるようになりました。冒頭に貼り付けた、「@grok ファクトチェック」 といったものがその最たるものですね。

 

これは、本当はおかしい。

grokに限らず、AIに何かを問うこと自体は良いでしょう。でも、AIがよこした回答は、まだファクトじゃないですよね? 情報ですらないかもしれない。AIの回答がファクトか否か、情報としてどれぐらいの精度と重要性を持っているのかを判断するのはわれわれ人間自身でなければなりません。

 

広く知られているように、AIはしばしばハルシネーションという現象を起こします。AIが過去にリファレンスした色々な情報片を総合した時に、AIがありもしない資料があると言ってみたり、ないはずの場所を挙げてみたりする……なんてことは珍しくもないですし、そのことに関して「AIがウソをついた」などと述べる人々もいます。

 

しかし、ここでいうハルシネーションってAIの専売特許じゃないと思うんです。私たち人間だってそうじゃないですか。マクドナルドで女子高生が話していた内容、居酒屋で耳にした噂話、眠い目をこすりながら読んだ本の内容、といったものを私たちはしばしばちゃんと覚えていなくて、記憶と記憶がごちゃまぜになって、いかにもありそうだけど実際にはないことを信じ込み、口にしてしまうことは珍しくありません。

ウソを言っているつもりじゃないけれども結果としてウソを本当だと思い込んでしまうのは、人間にはよくあることです。私はAIのハルシネーションを見ていると、「こいつ、こういうところはやけに人間くさいな」と思っちゃうほうです。

このハルシネーションに象徴されるように、AIが万能でも無謬でもないことは既にはっきりしています。である以上、AIにファクトチェックを丸投げするのは危うい行為ですし、たぶん無責任でもあります。「@grok ファクトチェック」で終わってしまう場合にはとりわけそうだと言えるでしょう。主体的判断をやめているにも等しいですよ、あれは。

AIにファクトチェックさせるのでなく、AIをファクトチェックしなくてどうするんですか。

 

尋ねっぱなしにしないだけでもだいぶマシ

幸いなことに、AIと問答を重ねるだけでも、ある程度まではファクトチェックができます。

 

 

「AIが見慣れないアウトプットをしてきたぞ」と思った時には裏取りが必要でしょう。AIの挙げた資料や論文が本当に存在するのか、その値打ちがどれぐらいなのかを判断するのもAI自身ではなく、人間のユーザーです。

AIは頑固な人間に比べれば素直なので、上掲のように間違っていた時には素直に詫びてくれ、別の候補を提示してくれることも多いものです。

 

AIに「あなたの挙げた資料は、どの情報源を参照して見つけたものですか?」などと尋ねるのも一手ですね。参照先についてAIとやりとりをしているうちに、AI自身がハルシネーションに気付いて、あわてて出力を修正してくれることもあります。

 

こうした確認は、AIに尋ねっぱなし・AIの出してきた情報を鵜呑みにしっぱなしではできないことです。が、現行AIの性質から考えるに必要不可欠なプロセスでしょう。

 

google検索で問われたリテラシーが、ますます問われるようになる

ファクトチェックの問題に加えて、問いの立て方、という問題もあります。

AIは本当に色々なことを調べてくれたり探してくれたり作ってくれたりします。ですが、「grok、よろしくー」だけではgrokとてたいしたことはできません。他のAIたちだって同様でしょう。

 

より良い出力を期待するためには、適切なプロンプトを、いわば、適切な問いを立てなければなりません。AIを効果的に使役したいユーザーには、問いを立てる能力が必要です。

ってことは、AIの普及をとおして私たちは、「問いを立てる能力を問われている」ということでもあるでしょう。

 

2017年に私は、『「知識を手に入れるための知識」がない人にとって、Google検索はあまりにも難しい。』という文章を書きました。

現状のGoogle検索の正体は、「知識の無い人に知識を授ける」ツールではなく、「知識の豊かな人だけが知識を引き出せて」「知識の乏しい人には質の良くない知識しか与えない」ツールと言っても過言ではありません。

あるいは、知識の豊かな者と乏しい者、リテラシーの豊かな者と乏しい者の格差を拡大再生産するツールになってしまっている、とも言い換えられるかもしれません。

2025年現在、google検索はますます頼りにならなくなり、検索結果のいちばん上にはAIが出力した真偽不明の情報らしきものが表示されるようになりました。この、真偽不明の情報らしきものもユーザー自身がファクトチェックしなければならないわけですから、「ググレカス」という言葉は死語になったと思わずにいられません。

 

ですが、google検索についての上掲フレーズは、AIにもまるまる当てはまるように思われるのです。

つまり、すでに知識や情報やリテラシーを持っている人は適切かつ十分な問いをAIに投げかけ、より精緻な出力を得られるうえにその出力の真贋を吟味できるのに対し、知識や情報やリテラシーの不足している人は不適切かつ不十分な問いをAIに投げかけ、ヘナチョコな出力しか得られないうえにその出力の真贋を吟味できないまま鵜呑みにしてしまうのです。

 

じゃ、どうすればいい?

では、どうすればいいのでしょう?

理想は、なんといってもAIに適切な問いを投げかけること、自分自身のAIの使い方の主要領域において好ましいプロンプトを立てられることでしょう。

 

必要な知識を得るための知識を得てしまうこと、必要な問いを立てるに十分なリテラシーを身に付けてしまうことでもあります。でも、それらは一朝一夕では身に付けられません。

とりあえずの対応策としては、「AIにしつこく尋ねなおすこと」「『ファクトチェック』の一言で終わらせないこと」でしょうか。

 

AIがそれっぽい情報を出力してきた時に、その情報の周辺やリファレンス先を尋ねてみること。または、関連する話題をAIとしばらくやりとりし続けてみること。そうしたプロセスのなかで「AIが言っているこれって、本当はおかしいんじゃない?」と気付くかもしれませんし、AI自身がおかしさに気付いて出力を修正してくれるかもしれません。「一問一答」に比べて煩雑ですが、ある程度はファクトチェックに近づけるでしょう。

それからファクトチェックを行うのはgrokやchatGPTやcopilotではなく自分自身だという意識を手放さないこと、情報の真贋を判断する主体性と責任はAIにではなく自分自身にあるという意識を手放さないことも大切だと思います。

 

そして長期的な対応策としては、情報リテラシーを身に付けていくことでしょうか。

情報リテラシーというと、いわゆるネットリテラシー、たとえばコンピュータの使い方みたいなものを連想する人もいるかもしれません。が、もともとのリテラシー literacy という言葉は「読み書き能力」です。書いてあることを書いてあるとおりに読解すること、問いたいことを正確に言語化すること、真贋について考えながら読むことなどは、まさにリテラシーの中核にあたります。たとえば、書いてあることを願望どおりに読んでしまうのでなく、書いてあるとおりに読める能力は、情報化社会の極致にある現在のネット社会で生きていくうえでも必須と思われます。

 

AIの普及は、いわゆる情報化社会を加速させることはあっても減速させることはないでしょう。であれば、情報リテラシーはこれからも問われ続けるでしょうし、そこから逃れられるとは思えません。本来なら、学生時代の現代文の読解演習で終わってしまわず、引き続きの向上に労力が割かれて良い領域だとも思います。

 

なお、あえて皮肉っぽく考えるなら、いつかは私たちが情報リテラシーを問われずに済む日が来るのかもしれず、ただ一言、「@grok ファクトチェック」と問えばそれで済むようになるのかもしれません。

ただし、その際には人間自身の主体性と責任が問われ直されるでしょうし、主体性と責任を失った人間に代わってそれらを引き受けるようになったAIが、人間の生殺与奪を握っても文句を言えなくなるでしょう。

 

問いを立てるという行為、および能力は、人間が人間であるうえでも重要で、おいそれとAIに譲って構わないものではないはずです。もし、「@grok ファクトチェック」と言っている人々にそうした意識が欠けているとしたら、あまりにも無邪気で無防備と言わざるを得ません。

 

 

【安達が東京都主催のイベントに登壇します】

ティネクト代表・安達裕哉が、“成長企業がなぜ投資を避けないのか”をテーマに東京都中小企業サイバーセキュリティ啓発事業のイベントに登壇します。借金=仕入れという視点、そしてセキュリティやDXを“利益を生む投資”とする考え方が学べます。


ウェビナーバナー

▶ お申し込みはこちら(東京都サイト)


こんな方におすすめ
・無借金経営を続けているが、事業成長が鈍化している
・DXやサイバーセキュリティに本腰を入れたい経営者
・「投資」が経営にどう役立つかを体系的に学びたい

<2025年7月14日実施予定>

投資と会社の成長を考えよう|成長企業が“投資”を避けない理由とは

借金はコストではなく、未来への仕入れ—— 「直接利益を生まない」とされがちな分野にも、真の成長要素が潜んでいます。

【セミナー内容】
1. 投資しなければ成長できない
・借金(金利)は無意味なコストではなく、仕入れである

2. 無借金経営は安全ではなく危険 機会損失と同義
・商売の基本は、「見返りのある経営資源に投資」すること
・1%の金利でお金を仕入れ、5%の利益を上げるのが成長戦略の基本
・金利を無意味なコストと考えるのは「直接利益を生まない」と誤解されているため
・同様の理由で、DXやサイバーセキュリティは後回しにされる

3. サイバーセキュリティは「利益を生む投資」である
・直接利益を生まないと誤解されがちだが、売上に貢献する要素は多数(例:広告、ブランディング)
・大企業・行政との取引には「セキュリティ対策」が必須
・リスク管理の観点からも、「保険」よりも遥かにコストパフォーマンスが良い
・経営者のマインドセットとして、投資=成長のための手段
・サイバーセキュリティ対策は攻守ともに利益を生む手段と考えよう

【登壇者紹介】

安達 裕哉(あだち・ゆうや)
ティネクト株式会社 代表取締役/ワークワンダース株式会社 代表取締役CEO
Deloitteにてコンサルティング業務に従事後、監査法人トーマツの中小企業向けコンサル部門立ち上げに参画。大阪・東京支社長を経て、2013年にティネクト株式会社を設立。
ビジネスメディア「Books&Apps」運営。2023年には生成AIコンサルティングの「ワークワンダース株式会社」も設立。
著書『頭のいい人が話す前に考えていること』(ダイヤモンド社)は累計82万部突破。2023年・2024年と2年連続で“日本一売れたビジネス書”に(トーハン/日販調べ)。
日時:
2025/7/14(月) 16:30-18:00

参加費:無料
Zoomビデオ会議(ログイン不要)を介してストリーミング配信となります。


お申込み・詳細
お申し込みはこちら東京都令和7年度中小企業サイバーセキュリティ啓発事業「経営者向け特別セミナー兼事業説明会フォーム」よりお申込みください

(2025/6/2更新)

 

 

 

【プロフィール】

著者:熊代亨

精神科専門医。「診察室の内側の風景」とインターネットやオフ会で出会う「診察室の外側の風景」の整合性にこだわりながら、現代人の社会適応やサブカルチャーについて発信中。

通称“シロクマ先生”。近著は『融解するオタク・サブカル・ヤンキー』(花伝社)『「若作りうつ」社会』(講談社)『認められたい』(ヴィレッジブックス)『「若者」をやめて、「大人」を始める 「成熟困難時代」をどう生きるか?』『健康的で清潔で、道徳的な秩序ある社会の不自由さについて』(イースト・プレス)など。

人間はどこまで家畜か 現代人の精神構造 (ハヤカワ新書)

人間はどこまで家畜か 現代人の精神構造 (ハヤカワ新書)

  • 熊代 亨
  • 早川書房
  • 価格¥970(2025/06/05 01:38時点)
  • 発売日2024/02/21
  • 商品ランキング46,678位

twitter:@twit_shirokuma

ブログ:『シロクマの屑籠』

熊代亨のアイコン 3

Photo: