知っておくべきAI技術用語101選

知っておくべきAI技術用語101選

AIは今やあらゆる場所に存在しています――スマホの中、車の中、さらにはキッチンの中にまで。
AIの利用を始めたばかりの方にとっては、まるで誰もが知らない言語で話している会話に突然放り込まれたような気分になるかもしれません。「機械学習」「ニューラルネットワーク」「自然言語処理」といった言葉が飛び交い、混乱したり圧倒されたりするのも無理はありません。

でも安心してください。AIの専門家でなくても、話についていくことは可能なんです!

AIは一見複雑に見えるかもしれません。実際、確かに複雑です。でも、それを少しずつ分解して理解していくと、実は意外と身近で理解しやすく、そして何よりワクワクする世界が広がっていることに気づくはずです。
NetflixやSpotifyのレコメンドエンジンが、なぜ自分の好みにぴったりの作品や曲を提案してくれるのか――その仕組みに興味を持ったのは、きっと私だけではないはず。

始めるなら、今がチャンスです。そして、あなたはすでにこのブログにアクセスしているのだから、ここから始めましょう!
これはAIの世界をナビゲートするための「チートシート(早見表)」です。
もしAIについての会話の中で、うなずきながらも頭の中は「?」でいっぱい…という経験があるなら、このリストがきっと助けになるはずです。読み進めていくうちに、きっとより深い内容にも挑戦する準備が整うことでしょう。

すでに聞いたことのある用語もあるかもしれません――「ハルシネーション(幻覚)」「チャットボット」「自動化」など――でも、それだけではありません。AI関連の語彙には、まだまだたくさん追加すべき言葉があるのです。
だから今のうちにこのリストをブックマークしておいてください。
AIの世界をさらに深く探求していく中で、また新しい技術用語に出会うことになるでしょう。そんなとき、この「AI技術用語101選」が、あなたを助けてくれるガイドになるはずです。

Article Index

1. AI(人工知能)

人工知能(AI)とは、人間の知能のように機能し、パターン認識や情報に基づいた意思決定など、人間が行う作業を実行できるデバイスの能力を指します。

2. AI倫理(AI Ethics)

AI倫理とは、人工知能を責任を持って設計・使用する方法を研究する分野です。技術が偏りなく、安全かつ環境に配慮して使用され、社会に悪影響を及ぼさないようにすることを目的としています。

3. AIフレームワーク(AI Framework)

AIフレームワークとは、AIアプリケーションを構築するためのツールキット(ライブラリ、ツール、機能)です。開発者が一から作らずに、機械学習モデルを簡単に構築・学習・展開できるように、あらかじめコードや構造が用意されています。

4. アルゴリズム(Algorithm)

数学の授業と同じように、アルゴリズムとは、コンピューターに問題を解決したり、作業を実行させたりするための一連のルールです。AIアルゴリズムは大量のデータで学習し、パターンや関係性を見つけ、予測や判断ができるようになります。

5. アラインメント(Alignment)

AIにおけるアラインメントとは、AIシステムの行動が人間の価値観や目標と一致するように調整するプロセスです。AIがより賢くなるにつれて、その行動が安全かつ倫理的で役立つものであるようにすることが重要です。

6. アノテーション(Annotation)

アノテーションとは、AIがデータを理解できるようにするために、データにラベルを付ける作業です。

7. API(アプリケーション・プログラミング・インターフェース)

APIとは、Webアプリケーションを構築するためのインターフェースで、ソフトウェア同士(例えば、コンピューターやWebサイト)が通信できるようにするためのルールのセットです。AIでは、APIを通じて音声認識やレコメンドなどの機能を利用できます。

8. アプリケーション(Application)

アプリケーション(略して「アプリ」)とは、ユーザーまたは他のアプリのために特定の機能を提供するソフトウェアです。Webブラウザ、ワードプロセッサ、画像編集ツールなどが含まれます。

9. 自動化(Automation)

AIにおける自動化とは、人間の介入なしにタスクを実行することです。メールの分類やデータ管理など、繰り返しや複雑な作業を機械に任せることで、人間はより創造的または戦略的な作業に集中できます。

10. 自律性(Autonomy)

自律性とは、人間の追加入力なしでシステムが自ら意思決定を行う能力を指します。

11. BERT(双方向エンコーダ表現 from Transformers)

BERTは、言語を理解するために開発されたAIモデルです。単語単体ではなく、文章全体の文脈を読んで意味を理解するため、質問応答や翻訳といったタスクにおいて、より自然で正確な処理が可能になります。

12. バイアス(Bias)

バイアスとは、ある結果や特定のグループを他よりも優遇・偏重してしまう傾向のことです。AIにおいては、不完全または偏ったデータセットによって発生することが多くあります。

13. ビッグデータ(Big Data)

ビッグデータとは、従来のデータ処理方法では扱いきれないほど巨大で複雑なデータの集合体を指します。スマートフォン、メール、検索キーワード、ユーザーデータベース、アプリ、サーバーなどから日々生成されています。

14. チャットボット(Chatbot)

チャットボットは、人間との会話をシミュレーションするために設計されたAIプログラムです。顧客対応や航空券予約などの場面で、自然言語を使ってやり取りを行い、まるで本物の人間と話しているような体験を提供します。

15. ChatGPT

ChatGPTは、OpenAIによって開発された人気のAIチャットボットで、自然言語処理(NLP)を使って、人間のようなテキストを生成・理解します。会話、質問応答、エッセイやストーリーの執筆などに活用されています。

16. クラスタリング(Clustering)

クラスタリングとは、データを類似性に基づいて自動的にグループ化するAIの手法です。何を探すかを明示しなくても、大量のデータの中からパターンや構造を発見するのに役立ちます。

17. 認知コンピューティング(Cognitive Computing)

認知コンピューティングとは、AIが人間のように考えることを目指す技術です。言語の理解、経験からの学習、意思決定など、人間の思考に近づけるよう設計されています。

18. コンピュータビジョン(Computer Vision / CV)

コンピュータビジョンとは、画像や映像を人間のように「見て」理解するAIの分野です。顔認識、自動運転車、植物や動物の識別アプリなどに活用されています。

19. 会話型AI(Conversational AI)

会話型AIとは、人間と自然な会話ができるように設計された技術です。チャットボット、音声アシスタントなどに用いられ、やり取りを通じて理解・応答・学習ができるため、人間との会話のような体験が実現します。

20. 畳み込みニューラルネットワーク(Convolutional Neural Networks / CNN)

CNNは、画像や映像といった視覚データに特化したAIモデルです。画像を層ごとに「スキャン」して、輪郭、形、色などの特徴を抽出するため、顔認識や物体検出などに最適です。

21. Copilot(コパイロット)

Microsoftによって開発されたCopilotは、AIを活用したスマートアシスタントで、ソフトウェアに統合されており、コードの記述やメールの下書きなどの作業をサポートします。AIによって提案や自動化を行い、ユーザーの入力から学習を続けながら、作業効率を高めてくれます。

22. コーパス(Corpus)

コーパスとは、AIモデルを訓練するために使用される大量のテキストやデータの集合です。たとえば、書籍、記事、ツイートのコレクションなどがあり、AIはこれらから言語パターンを学習し、より自然なテキスト理解や生成ができるようになります。

23. データ拡張(Data Augmentation)

データ拡張とは、既存のデータを加工して、人工的にデータセットを増やす技術です。例えば画像認識では、画像を回転させたり拡大したりすることで、さまざまな角度からの認識能力をAIに学ばせることができます。

24. データマイニング(Data Mining)

データマイニングとは、大量のデータからパターンや有益な情報を抽出するプロセスです。AIはこれにより、トレンドの予測、顧客行動の理解、不正検出など、ビジネス上の意思決定に役立つ洞察を見つけ出します。人間の目では気づけない情報も掘り出すことがあります。

25. データサイエンス(Data Science)

データサイエンスは、数学・統計・プログラミングの知識を使って、データを整理・分析・解釈し、生のデータから有益な洞察を引き出す学問・技術分野です。

26. データセット(Dataset)

データセットとは、AIモデルの学習に使用されるデータの集合で、表やリストなどの形式で整理されていることが多いです。

27. データビジュアライゼーション(Data Visualization)

データビジュアライゼーションは、複雑なデータをグラフやチャートなどの視覚的な形に変換し、直感的に理解できるようにする手法です。

28. ディープラーニング(Deep Learning / DL)

ディープラーニングは、人間の脳の構造を模倣するように設計された多層ニューラルネットワークを用いて学習する、機械学習の手法のひとつです。

29. ディープフェイク(Deepfake)

ディープフェイクとは、AIによって生成された画像、動画、音声を使って、実際には行われていない発言や行動を現実のように見せかけるコンテンツです。

30. 創発的行動(Emergent Behavior)

創発的行動とは、システムが明示的にプログラムされていないにもかかわらず、予想外または複雑な挙動を示す現象を指します。

31. Fスコア(F-Score)

Fスコアは、AIモデルの性能を測るために、適合率(Precision)と再現率(Recall)を組み合わせた評価指標です。

32. 顔認識(Face Recognition)

顔認識は、顔の特徴を分析することで個人を識別するAI技術です。目と目の距離やあごの形など、個々の顔の特徴をもとに認識を行い、スマートフォンのロック解除からセキュリティシステムまで広く使われています。

33. フューショットラーニング(Few-Shot Learning)

フューショットラーニングとは、AIモデルがほんの数個の例から新しいタスクを学習できる能力のことです。例えば、数枚の花の画像を見せるだけで新しい花の種類を識別できるようになるようなものです。限られたデータでも効率よく学べるのが特長です。

34. ファインチューニング(Fine-Tuning)

事前に学習されたAIモデルを特定のタスクに合わせて微調整し、精度を向上させるプロセスです。

35. ファウンデーションモデル(Foundation Model)

ファウンデーションモデルとは、言語処理や画像認識など、多様なタスクに適応可能な大規模な事前学習済みAIモデルのことです。

36. ゴミを入れればゴミが出る(Garbage In, Garbage Out / GIGO)

「Garbage In, Garbage Out(ゴミ入力、ゴミ出力)」とは、AIに質の悪いデータを与えると、結果も不正確で偏った、もしくは意味のないものになってしまうという考え方です。どんなに優れたレシピや道具を使っても、腐った材料ではおいしいケーキは作れないのと同じです。

37. Gemini(ジェミニ)

GeminiはGoogleが開発したAIモデルで、高度な言語処理・画像理解・マルチモーダル能力を組み合わせたものです。テキスト、画像など複数の形式に対応し、人間のような自然な応答を生成できます。

38. 敵対的生成ネットワーク(Generative Adversarial Networks / GANs)

GAN(敵対的生成ネットワーク)は、2つのAIモデルが競い合う仕組みです。一方が偽物のデータ(画像など)を作り、もう一方がそれを見破ろうとします。この対抗関係により、非常にリアルなコンテンツが生成され、リアルなアート制作などに活用されています。

39. 生成AI(Generative AI)

生成AIとは、テキスト・音声・動画・画像など、新しいコンテンツを自動生成するAIの総称です。

40. GPT(Generative Pre-trained Transformer)

GPTは、人間のような自然な文章を生成できる強力なAI言語モデルです。ChatGPTのようなチャットボットに使われており、与えられたプロンプトに基づいてテキストを出力します。

41. GPU(グラフィックス処理ユニット)

GPUは、主にグラフィックの描画や複雑な計算処理を行うためのチップです。AIでは、ニューラルネットワークのトレーニングなどの処理速度を左右する重要な役割を果たしており、ゲームからディープラーニングモデルまで、幅広い用途で活用されています。

42. ガードレール(Guardrails)

現実世界と同様に、AIにおけるガードレールとは、有害な結果や予期せぬ動作を防ぐための安全対策です。AIの振る舞いが倫理的・法的・実用的な範囲内に収まるように制限を設けます。

43. ハルシネーション(Hallucination)

AIにおけるハルシネーションとは、もっともらしく聞こえるが、実際には事実ではない、もしくは完全にでっち上げられた情報をAIが生成してしまう現象です。

44. 人間の関与(Human-in-the-Loop)

ヒューマン・イン・ザ・ループとは、AIシステムの意思決定プロセスに人間が関与することを指します。人間が監督・修正・検証を行うことで、安全性や精度を確保する仕組みです。

45. ハイパーパラメーター(Hyperparameter)

ハイパーパラメーターとは、AIモデルの学習前に手動で設定するパラメーターのことです。例えば、学習率(Learning Rate)を調整することで、モデルの学習速度をコントロールできます。

46. 画像認識(Image Recognition)

画像認識とは、AIが画像内の物体・人物・風景などを識別できる技術のことです。

47. 入力(Input)

入力とは、AIモデルに与えるデータのことです。例えば、ChatGPTへのプロンプトも入力の一種であり、モデルはこれをもとに予測や判断を行います。

48. モノのインターネット(Internet of Things / IoT)

IoTとは、冷蔵庫、温度調節器、ウェアラブルデバイスなど、日常の機器がインターネットに接続され、データを相互にやり取りするネットワークのことです。

49. 大規模言語モデル(Large Language Model / LLM)

大規模言語モデル(LLM)は、自然な言語を生成するために設計された生成系AIの一種です。自然言語処理(NLP)を用いて、人間の言葉を「理解」し、文章や音声の処理・分析・解釈を可能にします。

50. レイテンシ(Latency)

レイテンシとは、リクエストを送ってからレスポンスが返ってくるまでの遅延時間のことです。AIでは、モデルがデータを処理して結果を返すまでの時間を指します。

51. 学習率(Learning Rate)

学習率は、AIモデルが1回の誤差に対してどれだけパラメーターを調整するかを制御します。学習率が高いと学習は速く進みますが、最適解を飛ばしてしまうリスクがあります。低いと学習は遅くなりますが、より正確に調整されます。

52. 機械学習(Machine Learning / ML)

機械学習はAIの一分野で、データとアルゴリズムを使い、機械に人間の知的行動を模倣させる技術です。

53. マルチモーダル(Multimodal)

マルチモーダルは、テキスト・画像・音声など複数の異なる種類のデータを処理・理解できるAIシステムを指します。例えば、GPT-4のように画像と文章を組み合わせて解析し、画像に関する質問に答えられるモデルです。

54. 自然言語生成(Natural Language Generation / NLG)

自然言語生成は、データから人間のような文章を作り出す自然言語処理の一分野です。

55. 自然言語処理(Natural Language Processing / NLP)

自然言語処理は、コンピューターが人間の言語を「理解」し、解釈し、生成することを可能にするAIの分野です。

56. 自然言語理解(Natural Language Understanding / NLU)

自然言語理解は、人間の言葉の意味を把握するAIの能力です。単語の読み取りを超え、文脈や意図、感情までも処理します。

57. ニューラルネットワーク(Neural Network / NN)

人工ニューラルネットワークは、人間の脳の複雑な情報処理を模倣しようとする機械学習モデルです。

58. ノーコード(No-code)

ノーコードは、コードを書かずに誰でもAIモデルやアプリケーションを構築できるソフトウェア開発の方法論です。

59. ノイズ(Noise)

ノイズとは、モデルの混乱を招き、精度を下げる不要なデータやランダムなデータを指します。

60. OpenAI

OpenAIは、GPTなどの強力なモデルを開発する研究機関で、AIソリューションの開発に注力しています。

61. 最適化(Optimization)

AIにおける最適化とは、モデルの性能を向上させるために微調整を行うプロセスです。より正確な予測をしつつ、時間やリソースの消費を減らす最適なバランスを探ります。

62. 出力(Output)

出力とは、AIモデルが入力データを処理した後に生成する結果のことです。

63. 過学習(Overfitting)

過学習は、AIモデルが訓練データに過剰適合し、パターンを学ぶのではなく暗記してしまう状態です。そのため、未知のデータに対して性能が低下します。

64. パラメーター(Parameter)

パラメーターとは、モデルが学習の過程で調整する設定値で、パフォーマンス向上に寄与します。パラメーターが多いほど、より複雑で賢いモデルになることが多いです。

65. パターン認識(Pattern Recognition)

パターン認識は、データの傾向や類似性をAIが識別する能力です。過去の例から新しい入力を予測する際に役立ちます。

66. 予測分析(Predictive Analytics)

予測分析は、AIとデータを用いて過去の傾向から未来の結果を予測する技術です。

67. 処方的分析(Prescriptive Analytics)

処方的分析は、未来の予測だけでなく、データとアルゴリズムを活用して最適な行動を推奨します。ビジネスの意思決定を支援し、「何が起こるか?」ではなく「何をすべきか?」に答えます。

68. 事前学習(Pretraining)

事前学習は、大量のデータでモデルを事前に学習させることで、その後の特定タスクへの微調整が速く、効果的になるプロセスです。

69. プロンプト(Prompt)

プロンプトとは、AIに応答を引き出すために与える入力や質問のことです。

70. プロンプトエンジニアリング(Prompt Engineering)

プロンプトエンジニアリングは、AIから最適かつ正確な応答を得るために入力を工夫する技術です。質問や指示の言い回しを理解し、AIの挙動を誘導して出力の質を高めます。

71. Python(パイソン)

Pythonは、学びやすく人気のあるプログラミング言語で、ウェブ開発、データサイエンス、AIなどで広く使われています。

72. 再現率(Recall)

再現率は、AIモデルが与えられたデータセットの中から関連する結果をどれだけ正確に見つけられるかを測る指標です。

73. レコメンデーションエンジン(Recommendation Engines)

レコメンデーションエンジンは、ユーザーの好みや行動に基づいて商品やサービス、コンテンツを推薦するシステムです。Netflix、Spotify、Amazonなどが有名です。

74. リカレントニューラルネットワーク(Recurrent Neural Networks / RNN)

RNNは、テキストや音声のような連続データ向けに設計されたニューラルネットワークです。過去の入力を「記憶」するため、時間の流れに沿ったパターン認識に優れています。

75. 強化学習(Reinforcement Learning)

強化学習は、エージェントが環境と相互作用し、報酬や罰を受けながら学習するAIの一種です。試行錯誤やペットの訓練に例えられ、報酬を最大化するために行動を改善します。

76. 責任あるAI(Responsible AI)

責任あるAIは、倫理的で透明性があり、公正なAIの開発と利用を目指します。AIシステムが人々に害を及ぼさず、プライバシーを尊重し、偏りがないことを確保します。

77. 検索強化生成(Retrieval Augmented Generation / RAG)

RAGは、検索と生成を組み合わせたAI技術で、テキストを生成するだけでなく外部情報も取り入れて、より賢く正確な応答を実現します。

78. 半教師あり学習(Semi-supervised Learning)

半教師あり学習は、ラベル付きデータとラベルなしデータの両方を使って学習する手法です。少量の例から学び、ラベルなしデータを効果的に理解します。

79. 感情分析(Sentiment Analysis)

感情分析は、テキスト中の感情(ポジティブ、ネガティブ、ニュートラルなど)をAIが読み取り理解する技術です。

80. 音声認識(Speech Recognition)

音声認識は、話された言葉をテキストに変換するAIの能力です。SiriやAlexaなどのバーチャルアシスタントもこの技術を使っています。

81. スタッキング(Stacking)

スタッキングは、複数のモデルを個別に学習させ、その結果を組み合わせて最終的な予測を行うAIの手法です。

82. 強いAI(Strong AI)

強いAI、または人工汎用知能(AGI)は、人間のように幅広いタスクを理解し、学習し、応用できるAIのことです。

83. 構造化データ(Structured Data)

構造化データとは、表やスプレッドシートのようにきちんと整理された情報で、数値や日付、カテゴリなどが含まれます。コンピューターが処理しやすく、データ分析やアルゴリズム実行に適しています。

84. 教師あり学習(Supervised Learning)

教師あり学習は、入力データと正しい出力データの両方を使ってモデルを学習させる方法で、新しい類似データの予測や分類に役立ちます。

85. 合成データ(Synthetic Data)

合成データは、実際のデータを模倣してコンピューターが生成した情報です。実データが取得困難、もしくはプライバシー上の理由で使えない場合に使用され、例えばAIの訓練における偽の顔画像などがあります。

86. テストデータ(Test Data)

テストデータは、モデルを訓練した後に性能を評価するために使われるデータセットです。

87. テキスト分類(Text Classification)

テキスト分類は、テキストを「スパム」や「非スパム」などのカテゴリに振り分けるAIの技術です。大量の文章を整理し、目的の情報を探しやすくします。

88. テキスト要約(Text Summarization)

テキスト要約は、長文を短くわかりやすい要約に変換するAIプロセスです。重要なポイントを抽出します。

89. テキスト読み上げ(Text-to-Speech / TTS)

テキスト読み上げは、書かれた文章を音声に変換するAI技術です。

90. トークン(Token)

トークンは、AIが処理するテキストの単位で、単語やフレーズ、記号などを指します。自然言語処理(NLP)では、文章をトークンに分解し、それぞれの意味や文脈を解析してパターンを認識します。

91. 訓練データ(Training Data)

訓練データは、AIモデルが学習するための素材です。ラベル付きの例(画像、テキスト、数値など)の集合で、モデルがパターンを認識し、判断し、改善するのに役立ちます。

92. 転移学習(Transfer Learning)

転移学習は、あるタスクで得た知識を別のタスクに活用する技術です。ゼロから学習を始めるのではなく、既に習得したスキルを「転移」させることで、新しい問題の解決をより速く効率的に行えます。

93. トランスフォーマー(Transformers)

トランスフォーマーは、単語を一つずつ処理するのではなく、文中の単語同士の関係に注目して言語を処理・理解するAIモデルの一種です。GPTやBERTなどのモデルの「T」はこの技術に由来します。

94. チューリングテスト(Turing Test)

アラン・チューリングにちなんで名付けられたチューリングテストは、AIが人間の会話をどれだけ上手に模倣できるかを測る基準で、人が機械と話していると気づかないレベルを目指します。

95. 過小適合(Underfitting)

過小適合は、モデルがあまりに単純すぎてデータのパターンを捉えられない状態です。

96. 非構造化データ(Unstructured Data)

非構造化データは、あらかじめ定義されたフォーマットを持たない情報で、メール、動画、SNS投稿などが該当します。

97. 教師なし学習(Unsupervised Learning)

教師なし学習は、ラベルなしデータを用いて機械学習アルゴリズムがパターンや関係性を発見・識別する方法で、人間の介入なしに行われます。

98. バーチャルアシスタント(Virtual Assistant)

SiriやAlexaのようなバーチャルアシスタントは、自然言語処理を使ってユーザーの要求を理解し、スケジュール管理、質問応答、メール管理などを支援するAIツールです。

99. 弱いAI(Weak AI)

弱いAIは、特定のタスクを実行するために設計されたAIで、賢いものの、プログラムされた能力を超えて適応したり考えたりすることはできません。ナローAIとも呼ばれます。

100. 単語埋め込み(Word Embeddings)

単語埋め込みは、単語を数値で表現し、その意味を文脈に基づいて捉える方法です。例えば、「cat」と「dog」は似た意味なので近い位置にあり、「cat」と「car」はつづりは似ていても意味は異なるため遠くに配置されます。

101. ゼロショット学習(Zero-shot Learning)

ゼロショット学習は、学習していないタスクについても、ラベル付きデータなしで予測を行う能力です。例えるなら、AIがトラしか見たことなくてもライオンを認識できるようなものです。