問いを投げかけることは、私たちの思考や探究心を刺激する強力なツールです。これまでの記事では、問いを通じて洞察を深める基本的な考え方や実践方法について紹介してきました。
今回は一歩進んで、生成AIを活用して人間の思考力を拡張させる「問いの力」の応用テクニックを紹介します。生成AI(以下、AI)との対話を通じて、どのように私たちの思考プロセスを強化できるのか、その可能性について考察します。
本稿では、ソロ・ブレインストーミングなどでAIを対話パートナーとして活用し、アイデア出しなどで思考力を高めたいビジネスパーソンに向け、AIをビジネス活用を検討する初級者から中級者を対象に解説していきます。
キーワードは、AIとの協働で人間の思考の限界を突破する「知のフロンティア」の開拓です。
ビジネスの変革期における「問いの力」
AIの思考過程の特徴は、感情の影響を排除した客観性と多角的な視点の発想を得意とします。また、疲労などの生理的制約がないため、AIとの共創で人は未踏の「知のフロンティア」へ踏み入ることができます。まずは、人間側の思考における課題を整理していきます。
ビジネスシーンでの人間の思考限界とその影響
ビジネスの現場でが、日々重要な意思決定を求められますが、人間の思考には本質的な限界があります。これらの限界を理解することで、より効果的な意思決定が可能になります。
思考限界をもたらす2つの主要因
- 心理的要因
-
私たちの思考は、認知バイアスや固定観念に強く影響されます。例えば、業界の常識に縛られて革新的なアイデアを見逃したり、新しい発想を組織が受け入れられなかったりすることがあります。こうした心理的要因は客観性を損ない、意思決定を歪める原因となります。
- 生理的制約
-
長時間の会議による疲労、睡眠不足、ストレスなどの身体的要因も思考に大きく影響します。疲労が蓄積すると集中力が低下し、複雑な問題への思考能力が鈍ります。その結果、本来なら導き出せるはずの解決策を見逃すことになります。
ビジネスシーンにおける具体的なケース
- 新規事業のアイデア発掘において、従来の成功体験に囚われて斬新な発想が生まれない
- 組織の固定観念により、革新的なアイデアが却下される
- 長時間の会議で参加者の集中力が低下し、建設的な議論が停滞する
ビジネスにおける思考課題の克服法
変化の激しい現代のビジネス環境では、迅速かつ的確な判断と行動が求められます。しかし、上記のような思考の限界がボトルネックとなり、適切な意思決定を妨げることがあります。
このような状況を打破するには、事象に対する「問い」の質を高めるために思考の限界を克服する客観性を持たせた新たなアプローチが必要です。そうした状況で、適切な問いを設定することで、組織の思考プロセスを活性化し、イノベーションを促進することができるでしょう。
人間の思考は、「感情や心理の影響」や「脳の生理的制約」などにより、適切な情報処理が妨げられ、思考の限界が生じます。
次項では、具体的な「問い」の質を考えていきます。
筋の良い「問い」の特徴とは?
問いの原点は好奇心であり、事象の解像度を高め原理を見出す探究心です。言い換えれば、物事の本質的な理解を深めて、現状を打破するアイデアを導く役割が「問い」にあります。まずは、筋の良い「問い」について、以下の3つの「問い」の例から確認していきます。
- 例1: 新規事業アイデアを創出する問い
-
- Bad:「この事業アイデアは、成功しそうか?」
- Good:「何の課題を、誰ために、どのように解決する事業か?」
Point:課題を問いで分解し、ターゲット顧客や市場ニーズを具体化した評価ポイントで絞り込む。
- 例2:顧客満足度を高める問い
-
- Bad:「顧客満足度を上げるには、どうすべきか?」
- Good:「顧客は、どのような体験に価値を感じるのか?」
Point:体験設計における相手(ユーザー)の視点で潜在的な問題点を問いで浮かび上がらせる。
- 例3:業務プロセスの課題を見抜く問い
-
- Bad:「業務改善で、何かアイデアはない?」
- Good:「業務プロセスや手順で、ボトルネックとなる問題は何処で発生しているか?」
Point:要因を分析し深掘りすることで、因果関係を明確にして根本の原因に基づいた適切な対策を検討する。
筋が低い「問い」に共通する点は、漠然としていることが挙げられます。過去の記事で紹介したように、問いと仮説で論点を深める作業が問いの質を高めるために必要になります。
筋の良い「問い」は、問題を定義し、要因を可視化し、対策を講じる機能を持ちます。そのためには、自己固有の思考フィルターを取り除き洞察を深める役割が「問い」にあります。
課題解決を実行するために論点を見定める「問い」の手順を、以下のコラムに改めて掲載しておきます。
※タイトル(or▲)をクリックすると記事が現れます。
「問い」で論点を深める3ステップの思考プロセス
表面的な理解に留まらないために、多角的に偏りなく深く考察し問題の核心を探求する
例:「扱うべき問題は、何であるか?」
因果関係を洗い出し、核心を見定めて目的や状況に合致した論点を練りあげる
例:「どんな要素や関係で、事象は成り立つのか?」
新たな価値や視点を発見し、既成概念にとらわれない自由な発想を促す
例:「目的を満たすには、どのような手段や選択肢があるか?それは、模倣されやすいか?」
次に、人間の思考を拡張しアシストするAI活用の方法を順を追って解説していきます。
AIリテラシーの基本を習得する方法
AIについて理解を深めることで、ビジネスでの活用法がイメージしやすくなります。人間関係でも相手を理解すると円滑にコミュニケーションできるように、AIの長所と短所を整理しながら、基本的な特徴を把握していきます。
ビジネスでのAI活用の期待と課題
- 期待:メリット
-
- バイアスの軽減(視野の解放):私情や既成概念に囚われず複眼でデータやルールに基づく論理展開
- 迅速な処理能力(時短):大量データを短時間で、収集分析を多角的に処理が可能
- 作業の正確性(業務の効率化):データ入力や分析業務では、正確にミスなく作業も可能
- 反復作業の耐性(生産性の向上):質問や作業に生理的な制約がなく、同一作業を何度も繰り返せる
- リソース不足の補完(自動化):一部の業務プロセスを自動化することで、人的リソース不足の補填が可能
- 課題:(現時点の)デメリット
-
- 文脈理解の不足(柔軟性の欠如):深い背景知識や状況を完全に理解できない場合がある
- 独創性の限界(類似性の危惧):学習データから引き出される回答に、前例なき着想に限りが出る
- 依存性リスク(判断力の低下):AIに頼りすぎて人間の思考力や判断力が低下する恐れ
- 誤回答の可能性(返答の不確実性):蓄積データが不完全や偏る場合、誤った結論を導く場合は起りえる
- 情報の漏洩(機密性の不安):AIサービスのポリシーを確認し、プライバシー情報や機密情報は入力・送信しない
インターネットやスマートフォンが一般生活に深く浸透した現代では、これらが存在しなかった以前の生活が想像できないように、AIとの共創が定着し日常化する日は近づいています。
現時点でのデメリットも、技術的進歩や産業構造の変化、社会情勢の変動などで、今後は改善される可能性も考えられます。
AIに期待すべきことは、人間の能力を拡張するツールとしての機能であり、人の最終的な判断や決断の代替ではないと考えます。
AIには、情報収集、整理・分析など判断材料の提案をしてもらい人間の直感やひらめきの補助を担ってもらいます。そして、私たちは、自己対話の内省で事象の洞察を深めることが可能となります。
AIの可能性と現状の限界を理解した上で、(クリティカル)思考を鍛錬する内省を深める手段であり、「対話のスパーリングパートナー」と捉えて活用することが肝要。
次項では、AIとの共創を生産的に遂行させる基礎知識として、基本用語の解説から生成AIの概念の理解を深めていきます。
基本キーワードで深める生成AIの基本概念
AIの基本技術を知ることは、人に依頼する際に、相手の知識や経験を理解しておくことで的確な指示が出せるのと同じです。
生成AI入門者がAIを使いこなすために、まずは、その基礎概念の理解を深めるための初級キーワードを解説します。
※本稿最後に、生成AIの基本用語集を掲載しています。本文中の専門用語の確認などに、参照ください。
生成AIの基礎用語:”モデル”、”モデルアーキテクチャ”、”アルゴリズム”
『モデル(Model)』とは:
広義ではAIがデータ学習から獲得したパターンから特定のデータを出力する情報処理の全体の総称で、狭義にはAIの学習方法やデータ生成システムの固有名称を指します。飲食店/料理に喩えると、広義では特定ジャンルの専門店スタイルからカテゴリー横断する一般食堂のスタイル名称です。狭義には、同じ和食店でも用途に合わせて割烹様式やファストフード型式など、独自のお店のスタイル名称と言えます。生成AIにおいては、広義ではテキスト生成モデルや画像生成モデルなど、狭義ではGPT(Generative Pre-trained Transformer )やDALL-Eなどの生成AIの型式名称にあたります。
『モデルアーキテクチャ(Model Architecture)』とは:
モデルの基本構造であり情報処理を実行する構造設計(概念)で、主に総称として使われます。料理で言うと、こだわりの調理方法に値します。カレーの例では、スパイスを手作りで調合する方法から、カレーを一晩寝かせるなどの調理方法にあたります。生成AIの例では、自然言語処理や画像生成などの深層学習モデルのアーキテクチャであるトランスフォーマー(Transformer)などが挙げられます。
『アルゴリズム(Algorithm)』とは:
データ学習から情報処理を経てデータを生成するための詳細な手順方法やルールを指します。料理で言う、素材(データ)の加工手順や火加減など調理工程を定めたレシピと言えます。生成AIの例では、シミュレーションやゲームの生成で最適な結果を求める強化学習 (Reinforcement Learning)などが挙げられます。
用語 | 概念 | 飲食店/料理の例 | 具体例 |
---|---|---|---|
モデル | 特定の情報処理のデータ出力を行う名称 | 提供料理のカテゴリー名から用途別の飲食スタイル名 | テキスト生成モデル GPT |
モデルアーキテクチャ | 情報処理を実行する包括的な設計思想(概念) | 料理工程の工夫=調理方法 | トランスフォーマー |
アルゴリズム | 新たにデータを生成するための詳細な手順や情報処理ルール | 詳細な調理手順=レシピ | 強化学習 |
AIの研究・開発を行う立場でない限り、用語の明確な違いを意識する必要はありません。利用者としては、用語の概念や定義を知るレベルで十分と考えます。
文脈によっては、各用語は重複した使われ方がされている場合もあります。特に「モデル」は、アーキテクチャを含めて使われている場合もあり、総称や固有名詞として多様な使われ方がみられる。
※タイトル(or▲)をクリックすると記事が現れます。
適切な対話を成立させる「大規模言語モデル(LLM)」とは
大規模言語モデル(LLM:Large Language Model)の仕組みは、テキストデータで単語の並びから次に配置される単語の配列パターンを予測すること(推論)を繰り返し実行し、文章生成能力を飛躍させた手法です。
特に文章生成、機械翻訳、質問応答など、さまざまな自然言語処理タスクにおいて汎用的な言語モデル全般を指します。
LLMの狭義の意味では、特定のアーキテクチャを実装した具体的な大規模言語モデルを指します。Transformerアーキテクチャに基づいた、大規模なパラメータを持つ言語モデルとして、GPTシリーズ(Open-AI社)やGemini(Google社)、LLaMA(Meta社)などの生成AIモデルが存在します。
大規模言語モデルの特徴には、毎回、同じ質問をしても出力結果が異なる振る舞いが起こります。これらAIの振る舞いを左右する設定値で”ハイパーパラメータ”と呼ばれる設定が存在します。
大規模言語モデルが出力する文章配列には、後続する単語の出力を推論し確率的に生成するためのパラメーター(値)が各AIサービスごとに設定されている場合があります。ユーザー側では、この値を変更することは基本的に出来ません。
この値の設定には、異なる視点の確保による多様性や創造性の向上、また、特定パターへの過度な適合を避ける意図があります。
これにより、プロンプト表現やAIの利用環境によっては、出力される単語配列の確立が変化し表現や回答にバリエーションが起こりえます。よって、AIが毎回、同じ出力回答をしない可能性があることも留意しておくことが必要です。
生成AIモデルは、毎回、同じ出力回答をしない背景:モデルの学習データ不足、データ自体のノイズ(誤差)、また、多様性を持たせる確率論的により、ランダム性(サンプリング)が起こる。
AIを動かす魔法の言葉「プロンプト」とは
AIとの対話では、期待する出力結果を得るには適切な質問や問いの形式が重要になります。漠然とした質問には、ありふれた答えが返るように、意図する解を選るまでに時間を要する場合があります。
特にAIに質問や指示をする場合は、具体性と詳細な情報や指示の意図を明示することで問いかけにおける手戻りの時間を圧縮できます。まずは、その指示を示す「プロンプト」について、簡潔に説明していきます。
プロンプトの由来
プロンプトとは、AIに仕事の指示する文章です。以前は、”#”など特殊記号を用いたプログラム言語のルールも併用していましが、今では自然言語の文章で依頼ができます。
因みに、辞書でプロンプトの意味は以下の内容になります。
Prompt | |
---|---|
名詞 | 指示、(行動を)促す合図、ヒント |
動詞 | (行動を)誘発する、促す、想起させる |
形容詞 | 迅速な、即座の |
生産的な対話のラリーをAIと実施する留意点
今までのAIモデルは、前述したような人間の意図などを察知する能力は得意ではありませんでした。また、暗黙的な前提や微妙なニュアンスの理解は限定的であり、対話の継続性や個別の嗜好学習が課題としてあります。
現時点の技術革新では、コンテキスト理解(文脈理解)や学習データのない「*ゼロショット学習」の向上により、AIの解答の振る舞いや精度が日々進化していると感じます。*事前に学習していないデータに対して、文脈や知識を活用し推論を行う技術。
それでも、漠然とした質問や指示には解答の解釈に選択肢が広がり過ぎて、ありきたりな返答や誤った出力をする確立も高まり、結果として無駄なやり取りの回数が増えることでストレスも発生します。
また、AI活用の課題である誤った推論が起こるハルシネーション現象などでは、具体的かつ詳細な情報をプロンプトで伝えておくことが必要です。特に、長文は避けながら箇条書きの指示など、プロンプトの書き方の工夫も必要です。※具体的なプロンプト例は、次項で紹介しています。
この現象の原因では、学習データの品質や量の制限、モデルの推論学習の過程で誤った関連づけなども考えられます。これは、人の記憶が事実と異なる情報を時に結びつけてしまう脳の情報処理の混乱に似ています。
人間と同様に、依頼や指示には目的や前提条件などの意図を簡潔かつ明瞭に伝えることで、期待通りの解答をAIに期待できる。
さらに、AI活用を実施する際は、ファクトチェックによる裏取り作業は必須です。筆者がAIを活用する際は、複数の生成AIモデルを利用して、AIの出力回答を別のAIモデルに検証させるAIダブルチェックも行います。
主に、ChatGPT、Gemini、Claude、Perplexityの4モデルを特性に合わせて複数を組み合わせて利用しています。以下のコラムに、上記4モデルの特徴を掲載した簡易比較表を掲載します。
※タイトル(or▲)をクリックすると記事が現れます。
(2025年2月現在)
生成AIサービスの4モデル比較表
- ChatGPT
-
- 開発元:OpenAI
- モデルタイプ:GPT-4o mini (無料版)/GPT-Plus、Pro(有料版)
- 技術仕様:自己回帰型LLM
- 特徴:高い文章生成能力、創造的なテキストフォーマット (詩、コード、スクリプトなど)、多様で汎用タスクに対応
- 得意分野:文章作成、翻訳、要約、質疑応答、プログラミング
- 総評:バランスの取れた性能、多様な用途に対応可能、カスタマイズ可能なGPTの提供「GTPs」
- Gemini
-
- 開発元:Google
- モデルタイプ:Gemini 2.0Flash(最新)/Gemini Advanced(有料版)
- 技術仕様:LLM + Google検索統合、マルチモーダル対応(画像・音声・動画処理可)
- 特徴:検索機能との統合、リアルタイム情報取得、マルチモーダル (テキスト、画像、音声) 対応
- 得意分野:最新ニュース、データ検索、画像認識、音声認識、Google製品との連携
- 総評:リアルタイム性とマルチモーダル性が強み、検索と生成の融合
- Claude
-
- 開発元:Anthropic
- モデルタイプ:Claude3.5 Haiku,Sonnet,Opus(最新)/Pro(有料版)
- 技術仕様:LLM、コンスティテューショナルAI(憲法AI)、長文処理強化
- 特徴:長文生成・要約能力、倫理的な配慮、安全性の重視
- 得意分野:論文・レポート、小説などの長文作成、教育や倫理的な問題の議論、長文読解と要約
- 総評:長文作成と倫理的配慮に優れる、安全性を重視
- Perplexity
-
- 開発元:Perplexity AI
- モデルタイプ:Standaer(Claude 3.5、GPT-4.o、Sonarが含まれる)/Pro(有料:Deepseek R1、OpenAI o3-mini、Claude 3.5 、Sonarなどから選択)
- 技術仕様:LLM + 検索エンジン統合
- 特徴:検索結果を活用し出典を明示、最新情報に強い、対話型検索
- 得意分野:最新情報の収集、学術論文検索、歴史・文化など幅広い分野の検索と情報提供
- 総評:検索結果を活用し出典を明示、信頼性と最新のウェブ情報に基づいた回答を提供
AIの出力する回答の精度を留意しつつ、次項では筆者の執筆におけるAI活用の体験も交えて、実際に個人でアイデア出しや発想をAIと共創するステップを次に紹介します。
AIを相棒に自由な発想を導く
「生成AI人財」が対話を深める鍵:AI活用の3ステップ
AIとの対話は、自分の考えを整理し明瞭にする機会を与えてくれます。一人でアイデアを構想する際に、AIを相手に効率的に思考の整理やブレインストーミングをするためのAIの3つの主要な役割を解説していきます。
アイデアを発想し創造する主なプロセスには、過去の記事でも紹介した「発想>発散>収束」の3ステップがあります。この各ステップにおけるAIの関わりと役割を紹介します。
発想を深めるためのAIとの対話プロセス
- 1.発想の準備段階:テーマとなる方向性や目標策定、情報収集
-
AIは、短時間で幅広い情報収集やとりまとめが行えます。特に初期ブレストの「関連情報の収集と整理、そして、資料作成」に長けています。
- 2. アイデア発散:多角的に発想を拡張
-
AIは膨大なデータを日々、学習し蓄積しているため人間の思いつかない視点でアイデアを発散・拡張する効果が期待されます。キーワード周辺の関連情報を発掘する網羅性による「視野の拡張」を得意とする。
- 3. アイデア収束:分類整理や評価、優先順位で発想をまとめる
-
市場動向や、ケーススタディー事例などの過去の情報から実現可能性、成功要因やリスク要素のパターンを洗い出し分析・評価をします。これら判断材料より「アイデア評価から収束」をAIがサポートします。
まずは、AIに情報収集などの事前準備などの作業を依頼します。特に膨大なデータを読み込んで分類・選別や関連キーワードの網羅性や大量の情報処理では人間の処理能力を凌駕するのでAIに。
AIをブレストに活用するメリット:情報収集から、新たなアプローチ(視点)の発掘、アイデアの発散(バリエーション展開)、評価・収束(絞り込み)までの発想サポートで時短が期待される。
AIブレインストーミングを成功させるために
AIの回答の精度を上げる5つの極意
AIと対話を初めて行う際に、期待する返答が思うように出力されず何度もプロンプトを書き直す手戻りが起こります。これに対して、AIの「対話の作法」を理解することで生産的な対話のラリーを実現できます。
先述したAI活用の留意点を念頭に、実際に発想をAIと深めるためのプロンプト設計と対話のポイントを5つに絞り説明します。
- 1. 問いの目的を明示
-
- 理由: 曖昧な問いだと、AIの返答も誤解や抽象的になりやすい。
- 例:「売上を伸ばす方法は?」→。「新商品のターゲット層別に、売上予測を考える」→ (目的や条件を具体的に設定する)
- 2. 背景や意図する補足情報を提示
-
- 理由:AIは、文脈の明確な背景情報が不足すると適切な回答が難しくなる。
- 例:「競合他社と差別化はどう取れるか?」→ 。「以下が競合A社のサービス概要と自社サービス概要になります。競合A社の○○サービスと当社サービスを比較分析する。」→ (補足情報を含める)
- 3. 一文で、問いを並列や混在することを避ける
-
- 理由:複数の問いを切れ間のない長文で問うと、AIが解釈の要点を外す可能性がある。
- 例:「新規顧客を増やす方法と既存顧客を維持する戦略を教えてください」→ 。「新規顧客を増やす方法を考え提案する。その際、既存顧客の維持も考慮する。」→ (接続詞で文章分割)
- 4. 段階的に思考を深めさせる
-
- 理由:事象を分割し段階を踏んで論点を深める。
- 例:「マーケティング戦略を最適化するには?」→ 。「自社サービスXXのマーケティング戦略の課題を3つ考える。それを基に、各施策を検討する。」→ (問題点を分解して問う)
- 5. 情報源の確認
-
- 理由:AIは、過去の学習データに基づいて回答を生成します。必要に応じて、参照元を明示するように指示して、情報の信憑性を確認します。
- 例:「アフリカ大陸の主な環境問題の要因を挙げる」→ 。「アフリカ大陸の環境問題の主な原因を挙げる。その参照元(サイトURLなど)も提示してください。」→ (情報元の確認)
人間との対話でも、曖昧な指示は、的確な回答や意図する結果を期待できないように、AIも具体的な指示が必要になります。
前提条件や目的を簡潔に明示することで適切な反応を促したり、段階的に情報を小分けに整理して提供することで、AIの誤解や混乱を減少し意図する回答が得られることが期待される。
次に、著者がAIを活用して文章構成を組むまでのプロンプト例を紹介していきます。
AIと協働し文章構成を作成する手順
プロンプト例
プロンプト例:
【役割】
あなたは、大手出版社の敏腕編集者です。新たなコンテンツ記事の執筆において、テーマ設定からアイデ提案、絞り込みまでを共に考えます。
【前提条件】
– 対象読者のペルソナ:個人レベルでAIに興味を持ち始め、企画立案などのアイデア出しにAIを使ってみたいと考えるビジネスパーソン。
– 対象部署:経営企画、商品開発、ソリューション営業職。
【コンテンツの仮テーマ】
AIと協働するブレストの実践法
【タスク内容】
まずは、仮テーマが対象者に見合うかを検討します。その際に、補足や追加提案をしてくださ。提案内容には理由を含めて、日本語○○○字以上、○○○字以内()で簡潔にまとめてください。出力形式は、箇条書きとする。
最初にAIに役割を与えることで、解答に必要な専門性をAIに暗示させる。そして、タスクの前提条件となる、背景情報を箇条書きなどでAIに提示することで、質問の意図を簡潔に提示して回答の誤認要素を取り除く。
プロンプト例:
【タスク内容】
– 記事テーマを基に、以下の観点で記事の構成要素を○○案を提案してください。
– 各構想案は具体例を交えて、日本語○○文字以上、○○文字以内で提案する。
– 各アイデアは、理由を明示する。
– 主力形式は、表組で視認性に配慮し見やすくする。
【記事の観点】
前出の対象読者のペルソナ視点で、想定読者が興味を示すコンテンツ要素を○○文字以内で提案する。
AIの提案するアイデアに、確認や深掘りの問いで興味の方向性の足並みを揃えていきます。ポイントは、AIが提示するアイデを比較検討しやすい形式で出力依頼を行い、AIの回答を対話を繰り返しながら新たな気づきの発掘などの発想の飛躍に意識を向ける。
コンテンツに必要な要素をある程度の量を集めたら、それら情報を分類・グループ化しコンテンツ骨子となる文章構成を組む作業をします。
プロンプト例:
【タスク内容】
- 構成要素をグループごとに分類してください:
- 出力形式は、表組みとする。
- 各グループには、分類名の見出しを付ける。
- この分類や各要素を基に、コンテンツ記事の構成案を箇条書きで(数字)案を作成してください:
- 各構成案には、記事の訴求ポイントを日本語○○文字以上、○○字以内で簡潔な説明を付記する。
最終ステージでは、出て来た個別アイデアを精査しながら分類・整理をAIに依頼します。それを基に記事の骨子となる構成案をAIと固めていきます。
記事の骨子に沿って記事を自分で執筆していきます。その後に仕上げの段階で、文字校正、見出しの修正などで再度、AIを活用します。特に文章の校正作業では、誤字脱字だけでなく、冗長性や不明瞭な表現の修正にもAIの活用は有効です。
AIに情報収集や分析、たたき台の単純作業を代替させることで、アイデアの方向性や編集など「クオリティ・コントロール」に注力することが可能となります。
※タイトル(or ▲)をクリックすると記事が現れます。
【コラム】AIに文字数を正確にカウントし文章作成させる方法(プロンプト例)
生成AIに文章生成を依頼する時に、文字数の制限を設けても指示通りの出力を得られないことが頻繁におこります。
その理由に、欧文と比較して文字種の多さとなる、漢字、ひらがな、カタカナ、また記号における全角・半角などの複雑さが原因となります。また、AIとの自然言語のデータ換算方式の単位である*トークン化の方法が、欧文は単語の単位、和文は文字単位や文節単位など複数方式の混在などの要因が文字の換算を複雑にしています。*トークン化とは、AIが文章を理解するための前処理として文章を単語や文字などの意味を持つ単位に分割した単位のことを指します。
対策として、指示であるプロンプトを記述で文字カウント方法を明確に定義して伝えることで、ある程度の処理精度を上げることが期待できます。以下は、日本語の文字数をカウントさせる時のプロンプトの一例です。
【タスク】
指定文章の要約を日本語○○文字以上、○○文字以内で作成する。文字数を明記する。
【前提条件】
-全角・半角は、区別せずに1文字としてカウントする。
–句点、アルファベット、記号、数字は全て1文字としてカウントする。
–スペース、改行は、文字換算の対象外とする。
–文章を出力する前に文字数を数え、条件を満たしたことを確証した上でタスクを完了とする。
*必要に応じて、文字コードを指定する:
–日本語の文字コードは、UTF-8とする。
- イエローのハイライト:文字のカウント方式の定義
- ブルーのハイライト:カウント精度を高める前提条件
まとめ
AIと「問い」の協働で未来を拓く
2025年1月に、世界経済フォーラム(WEF)の2024年次調査レポート「仕事の未来」が発表されました。そこには、企業が人材に求められるコアスキル調査などのランキングが発表されました。
2025年に企業が求めるコアスキルのランキングでは、認知・思考スキルが上位10位に2つランクインしています。:1位. 分析思考*(Analytical thinking)、4位. クリエイティブ思考(Creative thinking) 。参照元:Future of Jobs report 2025 WEF
*分析思考とは、事象の因果関係などを事実を基に客観的に読み取り論理的に原理を見いだす思考プロセス。

また、2030年までに急激に需要が高まるスキルの予測として、4位. クリエイティブ思考と9位. 分析思考がランクインしています。

今後5年間にビジネスパーソンに必要なスキル変移の予測では、AI関連のテクノロジー・リテラシーが上位3を占めています。一方で、クリエイティブ思考や好奇心を保った生涯学習(Curiosity and lifelong Learning)など、ソフトスキル要素がTOP10に残りつつも、分析思考が1位から9位へ需要予測が後退するなど、AIの影響などが伺えます。
AIの普及がさらに進む中、この調査結果から、ビジネスパーソンに求められるソフトスキルの傾向が見えてきました。特に注目すべきは以下の2点です:
- 好奇心や探究心の重要性が高まっていること
- 生成AIにない創造性や感性といったクリエイティブな思考力が、今後のビジネスパーソンにとって不可欠になること
不確実性の高い時代では、*審美眼や哲学的な内省による深い洞察力はポジティブでチャレンジ精神を導く自己効力感(self-efficacy)を支える役割があると考えます。*審美眼とは、美の本質を見抜く力のこと。表面的な美しさだけでなく、内面的な価値や意味を理解する能力を指す。
テクノロジーの進化に対して、私たちは「仕事が奪われるのではないか」という不安を感じます。しかし、この変化を多角的な視点で見つめ直すと、違った側面が見えてきます。
変化の中にこそ、物事の本質を理解したいという好奇心が芽生えるチャンスがあります。この好奇心こそが探究心の源となり、新たな「問い」を生み出します。そして、その「問い」こそが、私たちの未来を切り開く原動力となると考えます。
次回は、AIがビジネスに浸透する中で人間の審美眼の重要性をテーマに記事の掲載を予定しています。
不確実な時代を乗り切るには、知的好奇心と探究心を維持することが必要。そこで、生成AIのテクノロジーが思いがけない視点の提供サポートを担い、未踏の世界で人間の選択と判断・行動の決断力の解像度を高める。
生成AIをマスターする「基本のAI用語集」
※タイトルをクリックすると、詳細な解説が表示されます。
AIの基礎知識
1. 機械学習 (Machine Learning; ML)
機械学習とは、大量のデータから規則性やパターンを自動的に学習し、新しいコンテンツを生成する能力を獲得するプロセスを指します。
画像、テキスト、音声などのトレーニングデータを基に、AIが創造的なタスクを実行できるようになる基盤技術です。深層学習の発展により、より自然で高品質な生成が可能になりました。
参照元:機械学習とは?
2. 深層学習 (Deep Learning; DL)
深層学習は、多層ニューラルネットワークを用いてデータから特徴を自動的に学習するAI技術です。各層の情報伝達と処理を行う「ニューロン」が、重要なパターンを抽出します。
ニューロンは情報を、統合・活性化して次の層に伝達し、これを繰り返すことで複雑な問題を解決します。この仕組みが、生成AIによる画像や文章などの新しいコンテンツ生成を可能にしています。
3. ニューラルネットワーク (Neural Network; NN)
ニューラルネットワークは、人間の脳の神経回路を模倣した計算モデルで、AIの基盤技術です。入力層、隠れ層、出力層で構成され、各層の「ニューロン」が情報を処理・伝達します。
隠れ層がデータの特徴を抽出し、複雑なパターンを学習することで、画像認識や自然言語処理などを可能にします。生成AIでは、この技術を活用し、新しい画像や文章を創造的に生成しています。
4. 事前学習 (Pre-training)
事前学習は、AIモデルが大量のデータを学習し、汎用的な知識を獲得する初期工程です。例えば、テキストではBERT、画像ではResNet、音声ではWav2Vecなどが活用されます。事前学習済みモデルは、続く下流工程のファインチューニングにより、限られたデータでも性能を向上させられます。これにより、専門的なタスクへの効率的な適応が可能になります。
5. 教師あり学習 (Supervised Learning)
教師あり学習とは、正解ラベル付きのデータを用いてAIを訓練する手法です。例えば、生成AIの画像生成モデルでは、「ネズミ」とラベル付けされた多数のネズミの画像を学習させます。これにより、AIは「ネズミ」の特徴を理解し、新たなネズミの画像を生成したり、初見の画像がネズミかどうかを判断したりできるようになります。
6. 教師なし学習 (Unsupervised Learning)
生成AIにおける教師なし学習とは、正解ラベルのないデータからパターンや規則性を見出す学習手法です。類似した特徴を持つものをグループ化することで、新たな構造や関係性を発見します。この技術は顧客セグメンテーションや異常検知などのビジネス応用で活用されています。
参照元:教師なし学習-SoftBank
生成AIの基幹技術・概念
1. 大規模言語モデル (Large Language Model; LLM)
膨大なテキストデータを学習して自然な言語生成や理解を行う深層学習モデルです。Transformerを基盤とし、文脈を考慮した文章作成や翻訳、質問応答などを高精度で実現します。生成AIの一種として、ChatGPTやGoogleのBERTなどが代表例であり、人間のような流暢なテキスト生成が可能です。
参照元:大規模言語モデル-NRI
2. 自然言語処理 (Natural Language Processing; NLP)
自然言語処理(NLP)とは、人間の言語をコンピューター側が理解・解析・生成する技術で、対話型の生成AIの基盤となる分野です。生成AIでは、NLPを活用してテキストデータを学習し、文章の意味を理解しながら新しい文章や会話を生成します。これにより、ChatGPTのような対話型AIや文章要約、翻訳など、多様なタスクを実現しています。
3. RAG:検索拡張生成(Retrieval-Augmented Generation)
大規模言語モデル(LLM)は、学習済みの情報のみで応答を生成するという制約があります。RAG(検索拡張生成)は、質問内容に応じて外部知識ベースから関連情報を検索し、LLMに提供することで、学習データにない最新の知識や専門情報の活用を可能にします。これにより、LLM単独では難しい高度な情報処理を実現できます。
4. トランスフォーマー (Transformer)
トランスフォーマーは、生成AIの基盤となる深層学習のモデルアーキテクチャです。自己注意機構により、文脈を捉えながら並列処理を行うことで、高速かつ高精度な予測・生成を実現します。 GoogleのBERTやPaLM、ChatGPTなどの大規模言語モデルの中核技術であり、自然言語処理、画像生成、翻訳など幅広い分野で革新的な成果を上げています。
5. 強化学習 (Reinforcement Learning)
強化学習は、AIが経験を通じて最適な行動を学ぶ手法です。AIは、環境でさまざまな行動を試し、その結果得られる報酬をもとに行動を改善します。報酬は行動を評価する指標で、例えば自動運転では目的地に安全に到達することや、ゲームAIでは勝利が高い評価になります。
この方法は、自律的な意思決定が求められる分野で活用されています。
6. ランダム性(Reasoning and Acting)
ランダム性とは、生成AIが同じ入力に対しても多様な出力を生成する機能です。これは「温度」パラメータという値で制御され、低温値では安定性が高く、高温値では表現の多様性が増します。金融や医療では低温で安定性を重視し、画像生成などアートや創作では高温設定が適しています。一部の生成AIサービスでは温度調整が可能ですが、サービスによって機能や制限が異なります。AIのランダム性は新たな発想を促す一方、予期せぬ結果も生み出します。
生成AIを使いこなす
1. トークン (Token)
トークンとは、生成AIが扱う最小のデータ単位です。例えば、「今日は私の誕生です。」という文章をAIが理解するために、「今日」「は」「私」「の」「誕生日」「です」「。」という7つの単位に分割されます。この処理をトークン化を言います。
AIは、このトークン単位で文章を理解したり、生成します。トークンは、AIにとっての言葉のパズルのピースのようなもので、AIはこのピースを組み合わせて文章を理解し、生成します。AIの学習データ量や計算コストにも影響するため、効率的なトークン化が重要です。
2. プロンプト (Prompt)
生成AIにおける「プロンプト」とは、AIに対して具体的な指示や質問を与えるためのテキスト入力のことです。例えば、「鳥がさえずる森の景色をイラストに描いてください」と入力すると、AIはその内容に基づいて画像を生成します。プロンプトの内容やタスクの詳細さによって、生成結果が大きく変わるため、明確かつ具体的な指示が肝要です。
3. プロンプトエンジニアリング (Prompt Engineering)
生成AIから望ましい出力を得るためのプロンプト設計・最適化技術です。例えば、「以下の文章を、要約してください」より、「以下の文章を、100文字以内で簡潔に具体例を交えて要約してください。」とすることで、より的確な回答を引き出せます。効果的なプロンプト作成により、AIの性能を最大限に引き出し、様々なタスクを効率的に実行できます。
4. AIエージェント (AI Agents)
AIエージェントとは、特定のタスクや目標を自律的に遂行するAIシステムです。環境を認識し、判断を下し、行動を実行する能力を持ちます。2024年に注目され、2025年も引き続き話題です。ビジネスでは、自動化されたカスタマーサービスや個人向けAIアシスタント、自律型ロボットなどに活用されています。例えば、ZendeskのAIエージェントは顧客対応の80%を自動化し、効率化とコスト削減を実現しています。
参照元:AI エージェントとは?-AWS
5. AIオーケストレーション (AI Orchestration)
えば、ECサイトでは商品説明AI、顧客行動分析AI、商品推奨AIを連携させ、個別化された購買体験を提供します。医療分野では、画像診断AI、問診AI、治療計画AIを連携し、診断から治療までを支援します。課題は、AIモデル間の連携におけるデータ整合性、処理速度、適切なモデル選定、運用管理です。対策は、各AIの役割を明確化しインターフェースを共通化し、導入時に業務担当が理解しやすツールに仕上げることです。
6. エッジAI (Edge AI)
エッジAIとは、AIを端末(エッジデバイス)に直接搭載し、クラウドを介さずにその場でデータ処理を行う技術です。例えば、自動運転車はカメラやセンサーで収集したデータをリアルタイムで分析し、安全な運転を支援します。この仕組みにより、低遅延、通信コスト削減、プライバシー保護が可能となり、IoTや産業用ロボットなど幅広い分野で活用されています。
参照元:エッジ AI とは-RedHat
7. マルチモーダルAI (Multimodal AI)
マルチモーダルAIは、テキスト、画像、音声など様々なデータを同時に扱えるAIです。例えば、画像を見て説明文を作ったり、文章から画像を生成できます。ビジネスでは、商品説明の自動作成や、マルチメディアコンテンツの分析に活用されています。これにより、より自然で状況に応じたAIの活用が可能です。
参照元:マルチモーダルAIとは?-@IT
8. アンラーニング (Unlearning)
アンラーニングは、AIモデルから特定データの学習の影響を取り除く技術です。個人情報を含む学習データや著作権侵害の疑いがあるデータの影響を無効化し、プライバシー保護に役立てます。ただし、モデル内部に拡散した情報の完全な除去は困難です。実装では再学習やモデル編集などを活用し、データの残存リスクを最小限に抑えます。
9. ファイン・チューニング (Fine-tuning)
ファインチューニングとは、事前学習済みの大規模AIモデルを転移学習の手法を用いて特定の用途や目的に適応させる技術のことです。画像生成AIや言語モデルなどを、企業独自のデータで再調整することで、自社ニーズに合わせた専用AIを構築できます。
明確な正解がある特定タスクで性能向上を目指す際に有効です。ただし、成果の質は、トレーニングデータの品質と量に大きく依存します。
参照元:ファインチューニングとは:IBM
10. インストラクション・チューニング (Instruction Tuning)
ユーザーの指示を正確に理解し、意図に沿った適切な応答の振る舞いを調整する学習手法です。これはファイン・チューニングの一種ですが、特定の用途・目的向けではなく、多様な指示に対応できる主力の最適化が特徴です。また、人間の介在による強化学習(RLHF)と異なり、報酬モデルを使わず、人間が作成した大量の事前データセット(LLM)を調整します。メリット:汎用性の高さや透明性の確保、意図に沿った応答の向上です。デメリット:データ作成にかかる時間やコスト、人間のバイアスにおける影響の可能性があります。
生成AIの発展技術
1. 転移学習 (Transfer Learning)
転移学習とは、学習済みモデルの知識を別のタスクに応用する手法です。例えば、画像認識AIが猫や犬の識別を学習した後、その知識を活かして車の種類を識別するタスクに応用できます。
ゼロから学習する場合に比べ、転移学習は少ないデータで効率的に学習を進められます。特に、医療画像のように大量のデータ収集が難しい分野では、転移学習が有効です。特に、AI開発の効率化に貢献する重要な技術です。
2. フェデレーテッドラーニング:連合学習 (Federated Learning)
フェデレーテッドラーニング(連合学習)とは、データを中央サーバーに集めず、各デバイスが個別にモデルを学習し、その結果のみを統合する分散型機械学習手法で、プライバシーを保ちながら機会学習モデルを向上させます。医療や金融など、機密性の高い医療機関や金融・行政期間で活用されています。
3. メタラーニング(Meta-learning)
メタラーニングとは、AIが学習の方法そのものを学習する技術です。過去の経験を活かして新しい課題に素早く対応できるため、少ないデータでも効果的な生成AIモデルを構築できます。ビジネスでは、新規分野への展開や個別化モデルの開発に役立ち、例えば限られたデータから効率的なパーソナライズされたマーケティング展開も可能です。
参照元:メタ学習とは?-IBM
4. HITL:人間参加型AI (Human-in-the-Loop)
HITLとは、人間がAIの学習や意思決定プロセスに介入し、フィードバックや模範行動を提供することで、AIの性能や信頼性を向上させる手法です。例えば、人間がAIの出力結果を評価・修正し、それを基にAIが再学習することで、より安全で精度の高い振る舞いを実行するAIシステムが構築されます。
5. RLHF(Reinforcement Learning from Human Feedback))
RLHF(人間のフィードバックによる強化学習)は、AIの出力を人間の価値観に合わせる機械学習の手法です。ChatGPTを例に挙げると、人間の評価を基にAIが自動で学習します。一方、HITLは運用段階で人間が介入しますが、RLHFほど直接的なモデル改善はしません。また、ファインチューニングは、特定のタスクに特化した事前学習モデルの調整を指し、RLHFとは異なります。
5. GAN:敵対的生成ネットワーク(Generative Adversarial Network)
GAN(敵対的生成ネットワーク)は、2つのAI(生成器:ジェネレーターと識別器:ディスクリミネーター)を競わせながら学習する技術です。生成器は、例えば実在する人物の顔写真に似た画像を生成します。一方、識別器は生成された画像が本物か偽物かを見分けようとします。この攻防を通じて、生成器はより本物に近い画像を生成できるようになり、識別器も識別能力を高めます。
参照元:GANとは何ですか?-AWS
6. 知識蒸留 (Knowledge Distillation)
知識蒸留とは、大規模モデルの知識を軽量なモデルへ伝達する技術です。高精度な教師モデルは計算コストが高く、軽量な生徒モデルは精度が低いという課題を解決します。
DeepSeekは知識蒸留を効率化する手法を研究しており、特に大規模言語モデル分野で注目されています。DeepSeekの手法を用いることで、生徒モデルは教師モデルの知識を効果的に学習し、高い性能を維持したまま軽量化・高速化できます。
知識蒸留は計算資源に制約のある環境でのAI活用を促進する重要技術であり、DeepSeek等の研究開発により進化し、様々な分野への応用が期待されています。
7. 説明可能なAI (Explainable AI; XAI)
説明可能なAI(XAI)は、AIの意思決定プロセスを従来のブラックボック化から人間が理解できる形で説明する技術です。医療では診断画像の部位をヒートマップで可視化したり、金融では融資審査の透明性を向上させます。XAIは信頼性向上や倫理的課題への対応に有効ですが、計算コスト増加やバイアス対応、プライバシー保護などの課題も抱えています。
参照元:説明可能なAIとは-IBM
リスクと課題
1. AI倫理 (AI Ethics)
AI倫理とは、人工知能(AI)の開発・利用が社会や個人に悪影響を及ぼさないようにするための原則や実践指針を指します。例えば、AIによる差別や偏見の排除、プライバシー保護、透明性の確保などが含まれます。生成AIの分野では、人種や性別による偏見を含んだコンテンツの生成を防ぐ仕組みや、倫理的な問題点がないかを人間がチェックするレビュー体制が重要視されます。
2. ハルシネーション (Hallucination)
ハルシネーションとは、AIが事実と異なる情報を回答する現象です。人間の幻覚に似た、もっともらしい誤った発言を指します。例えば、「2024年のノーベル賞受賞者は、ドナルド・トランプです」といった証拠がないを回答をすることがあります。これはAIが学習データの誤った関連性を紐付けたり、不完全な情報処理を行うために発生します。
対策として、高品質な学習データの使用、専門家によるレビューなど人間のフィードバックによる強化学習(RLHF)、出力結果の検証プロセス強化が必要です。
参照元:ハルシネーションとは-NRI
3. データバイアス (Data Bias)
AIのデータバイアスとは、学習データの偏りにより出力が不公平や不正確になる現象です。例えば、特定の性別や人種のデータ不足で、その属性の予測が誤ったり不平等になる可能性があります。対策として、データの多様性確保、リバランス手法による属性補完、継続的なモデル評価が重要です。さらに、バイアス検出ツールを活用し公平性を向上させます。データバイアスはAIの信頼性に大きく影響するため、慎重な対応が必要です。
4. 推論遅延 (Inference Latency)
推論遅延とは、AIモデルがプロンプト入力を受領してから出力を生成するまでの時間を指します。例えば、ChatGPTのような対話型AIで、ユーザーの質問に対する応答が表示されるまでの時間がこれに当たります。低遅延では、リアルタイム性が求められるアプリケーションでは重要性を増します。
推論遅延の対策には、モデルの軽量化、キャッシング、CPU最適化ツールの活用、AUTOデバイス選択モードの利用などがあります。これらにより、精度を維持しつつ推論速度を向上させることができます。
その他
1. 世界モデル (World Model)
世界モデルとは、大規模な学習データから現実世界の構造や因果関係を観測から学習し、推論を行う枠組(技術の一つ)です。これにより、物理法則を再現したり、複雑な状況での行動を予測したりすることが可能です。ただし、学習データの偏りによるバイアスの発生には注意が必要です。例えば、「特定の行動が必ず特定の結果を生む」と誤認される可能性があります。故に、重要な意思決定には人間の確認が不可欠であり、医療や法的判断などでは、特に慎重な検証が求められます。
2. ゼロショット学習 (Zero-Shot Learning)
事前に学習していないデータに対して、文脈や知識を活用し推論を行う技術です。画像認識では説明文を基に未知の物体を認識し、自然言語処理では未学習のタスクを簡易指示でも実行します。例えば、「馬に似て白黒の縞模様がある」という説明からシマウマを識別できます。課題は情報不足や曖昧な説明により誤った推論が生じる点です。対策として、大規模言語モデルの活用や適切なプロンプト設計が重要です。この技術はAIの汎用性が向上します。
参照元:ゼロショット学習とは-IBM
3. ReAct (Reasoning and Acting )
大規模言語モデル(LLM)が、推論(Reasoning)と行動(Acting)を 観測を交えて繰り返し行い、複雑なタスクを解決する枠組です。例えば、質問に対して関連情報を検索し(Acting)、その結果に基づいて回答を生成します(Reasoning)。この過程を繰り返すことで、外部環境との連携や段階的な問題解決が可能になります。事実に基づいた正確な回答や、複数ステップを要するタスクの実行に優れており、質問と応答や意思決定支援など幅広い分野で活用されています。課題は、情報源の信頼性や検索効率性です。性能の向上で、より複雑なタスクの自動化が期待されます。
参照元:ReAct: Synergizing Reasoning and Acting in Language Models-note:npaka
参考文献&WEBサイト
- 岡瑞起ほか 「『AI時代の質問力』 プロンプトリテラシー 」 :翔泳社 2024年
- 安藤昭子 「問いの編集力 思考の『はじまり』を探究する」 :ディスカヴァー・トゥエンティワン社 2024年
- 比治山大学 社会臨床心理学科吉田ゼミHP:公開オンライン授業「知覚・認知心理学:12.思考の過程」 :2025年1月14日閲覧
- 第一生命経済研究所WEBサイト:「『ブレインストーミングAIの衝撃』」 :2025年1月20日閲覧
- RICHOのAI:仕事のAI:「『大規模言語モデル(LLM)とは』」 :2025年1月27日閲覧
- Forbes JAPAN:「AIを使いすぎると人は愚かになる 研究でわかった『認知的オフロード』」 :2025年1月24日閲覧
- Forbes JAPAN:「企業が求めるスキル首位は「分析的思考力」、最新調査」 :2025年2月3日閲覧
- Forbes JAPAN:「問いを立てる力が「人間中心のAIアプローチ」を実現する」 :2025年2月4日閲覧
- World Economic Forum:「The Future of Jobs Report 2025」 :2025年2月3日閲覧
X(旧ツイッター)やフェースブックのアカウントをフォロー頂くと最新記事を読み逃すことなく閲覧できます。