ChatGPT仕事術 AIは嘘をつく?
AIは“嘘をつく”というより
「それっぽく補完してしまう」
「AIは嘘をつく」と感じる瞬間の多くは、悪意のある嘘ではなく、情報の空白を 自然な文章で“埋めてしまう”ことが原因です。この記事では「それっぽい補完」が起きる理由と、 補完を抑える具体的な使い方をまとめます。
まず結論:AIは“断定口調の推測”を出しやすい
AIは文章生成が得意です。その反面、質問に情報が足りないと、会話として成立させるために もっともらしい推測(補完)を出すことがあります。
文章が自然なほど「事実っぽく」見えてしまうのがポイント。ここで“嘘”と誤解されやすくなります。
「それっぽく補完」が起きる典型パターン
① 質問が曖昧(条件不足)
対象・期間・目的が曖昧だと、AIは空白を埋めて回答を作ります。
② 数字・固有名詞が絡む
年号、金額、制度名、型番などは“それっぽい誤り”が出ると致命的になりがちです。
③ 根拠を求めていない
「出典も一緒に」などの指示が無いと、整った文章だけが先に出ます。
④ “最新情報”を聞く
ニュース、規約、料金、制度など変化する情報は、補完が起きやすい代表例です。
補完を抑える「使い方」:推測の余地を潰す
- ルール1:不明は“不明”と答えさせる 「推測しない。不明なら不明と書き、追加で質問して」と先に宣言します。
- ルール2:「事実」と「推測」を分けて出力させる 見出しを分けるだけで、読み手側の事故が激減します。
- ルール3:対象・期間・前提を固定する 誰向け?いつの話?どの国・業界?などを明記すると補完が起きにくくなります。
- ルール4:重要項目は検証ステップ込みで 数字・固有名詞・制度は「確認方法(一次情報の当たり先)」も一緒に出させます。
コピペで使える:補完させないプロンプト
この一文を最初に貼るだけで、勝手な補完がかなり減ります。
※仕事で使うなら「法的判断はしない」「社内情報は外に出さない」などの制約も追記するとさらに安全です。
まとめ:AIは“嘘”より「空白埋め」を警戒する
AIは嘘をつこうとしているのではなく、足りない情報を“それっぽく”埋めてしまうことがあります。 だからこそ、ユーザー側が前提を固め、推測を禁止し、追加質問を引き出すだけで、 出力の品質と安心感は大きく改善します。
