生成AIに頼りすぎると思考力が弱くなる問題が深刻で
まず、マイクロソフトとカーネギーメロン大学が共同で行った、知的労働者300人以上を対象に900件以上のAI活用事例を集めて研究したやつがあって
この研究によると、
・知的労働者は、AIを信頼して文章作成や分析などの作業を任せると、そのぶん自身のスキルを使わなくなる傾向がみられた。特に、時間的なプレッシャーがある状況では、AIが出した結果を吟味せずに受け入れてしまう傾向が強まった
・AIに頼ることで、文章の校正能力や法的文書の作成能力といった専門スキルに自信を無くす。で、結果としてAIの提案を自動的に受け入れるようになる。この悪循環が続くと、効率化の代償として、思考力を働かせる機会が失われている
要は、「AIを信じて依存しすぎると、批判的に考える機会が減り、批判的思考力が弱まる危険性がある」ということです。
で、もっと直接的な研究結果を突き付けてくるのが、スイス・ビジネススクールのやつでして
666人を対象にアンケートやインタビューを行って「AIツールをどれくらい使っているか」と「批判的思考力のレベル」の関係を分析した論文です
示されていたのが、
・AIツールをよく使う人ほど、批判的思考力が低い。AIに頼って自分で考えることをサボってしまう「認知的オフロード」が原因ではないか
・特に、若い人の方がAIに頼る傾向が強く、その分、批判的思考力が低くなる可能性がある
・一方で、もともと学歴が高い人は、AIを使う頻度に関わらず、高い批判的思考力を保っていた
けっこう残酷な研究結果です。
もともと思考力が高い人は、依存して思考力を弱くすることもなく、生成AIを使い倒すことができる。
一方で、あまり批判的思考に慣れていない人は、AIを使えば使うほど、思考力が弱くなり、生成AIに使われる状態になってしまう。
以上の研究結果を僕なりに図示すると、添付した画像のようなことが起きているんじゃないかと
・批判的思考力(論理的に考えるとか、物事を疑うとかの力)が低いと、フワッとした浅いプロンプトしか書けない
・浅いプロンプトを入力されるわけなので、生成AIからも浅くてどっちつかずな回答が返ってくる
・何となく「ありきたりだな」「抽象的な言葉が多いな」とは感じつつも、疑問点もうまく言語化できないので、生成AIの回答を鵜呑みにして、そのまま使ってしまう
・生成AIの回答を鵜呑みにすればするほど、批判的思考力が弱まる
・生成AIの回答を鵜呑みにして、そのまま会議に持って行ったところで、腹落ちして理解できていないから、「これどゆこと?」と質問されても説明責任を果たせない。AIの回答を具体の具体で理解できていないから、行動にも落としこめない
仕事で生成AIを活用した成功体験が得られないから、AIを上手く活用する経験値も蓄積されない
・思考力の弱化と、AIの経験値が蓄積されないことによって、またフワッとした浅いプロンプトを書いてしまう←振り出しに戻る
このループがグルグル回り続けると、どんどん頭が悪くなってしまう
これが、生成AIを使ううえで最も気を付けないといけないポイントだなと噛み締めております