知っておくべき 10 の人工知能に関する業界用語

人工知能はこれまで、世界で最も優秀な科学者たちだけが携われるものであり、世界トップの研究所に隔離されていました。今では、AI はインターネット接続さえあれば誰でも利用できるようになりました。ChatGPT、Voice.ai、DALL-E などのツールは日常生活に AI を浸透させましたが、その機能や内部構造を説明するために使用される用語は、必ずしも一般的なものではありません。  ここでは、お好みの AI ツールに関する話題や夜のニュース、あるいは社内のちょっとした雑談でよく耳にする 10 の用語を紹介します。この AI 辞書を常備して、人気のある (場合によっては物議を醸す) この話題について常に情報を入手しましょう。 

AI 生成コンテンツ  

AI が生成したコンテンツとは、人工知能を搭載したツールによって部分的または完全に作成された、文章、音声、映像メディアを指します。  誰かが AI を使って何かを作ったとしても、それが自動的に不正や無責任な手抜きをしたということにはなりません。AI は、概要を作成したり、発想のヒントをまとめたり、問題の新しい見方を模索したりする際に、最適なスタート地点となり得ます。  

AI のハルシネーション 

AI が答えられないような質問をした場合、AI はその答えを知らないことを認めないことがあります。そこで、答えを示さない代わりに、AI はあなたが聞きたいと思うような答えを作り上げます。この作り上げた答えは、AI のハルシネーションとして知られています。  ニューヨークで、ある弁護士が ChatGPT を使って準備書面を書いたところ、重大な AI のハルシネーションが発生したという実例があります。その準備書面は一見完璧で、出典を引用しているように見えましたが、出典はどれも存在しないことが判明しました。1すべては AI の「想像」だったのです。  

ブラック ボックス 

ブラック ボックスという言葉を理解するには、AI を箱の中に収められた歯車、滑車、ベルト コンベアのシステムと想像してください。透明のボックスでは、入力がどのように最終製品に変換されるかを見ることができます。一方、一部の AI はブラック ボックスと呼ばれます。つまり、AI がどのようにして結論に至ったのかがわからないということです。AI は推論プロセスを完全に隠します。AI の作業をダブルチェックしたい場合、ブラック ボックスは問題になる可能性があります。 

ディープフェイク 

ディープフェイクとは、写真、ビデオ、音声クリップを操作して、実際には起こっていない出来事を描写することです。ソーシャル メディアの面白いコントやバイラル投稿によく使われ、悪意のある集団は、フェイク ニュースの拡散や詐欺にもディープフェイクを利用しています。   例えば、政治家を見苦しいポーズや写真の背景に挿入するなどがあります。ディープフェイクは笑いを取ることを意図している場合もありますが、意見の相違や被写体の評判を落とすような噂を巻き起こすことを意図している場合もあります。ディープフェイク画像を見破るコツのひとつは、背景にいる人物の手や顔を見ることです。ディープフェイクは指を増やしたり減らしたり、表情を歪めたりすることがよくあります。  ディープフェイクとされる AI 支援による音声なりすましも信憑性が高まっています。マカフィーの「Beware the Artificial Imposter」レポートによると、全世界の回答者の 25% が、自分自身か知り合いに音声詐欺が起こったと回答しています。音声詐欺のターゲットにされた人の 77% が、結果として金銭的な損失を被りました。  

ディープ ラーニング 

AI の思考プロセスが人間の脳に近ければ近いほど、AI の精度は高くなるでしょう。ディープ ラーニングは、AI が人間のように推論し、情報を思い出すように訓練することで、マシンがパターンを識別し、予測を立てることを意味します。 

説明可能な AI 

説明可能な AI (ホワイト ボックス) は、ブラック ボックス AI の対極にあります。説明可能な AI モデルは、常にその作業と結論に至った経緯を示します。説明可能な AI は、答えに至った内容を再確認できるため、最終的なアウトプットに対する自信を高めてくれます。 

生成 AI 

生成 AI は、ChatGPT、Bard、Craiyon など、現在主流となっている AI ツールの多くを支えている人工知能の一種です。スポンジのように、生成 AI は膨大な量のデータを吸収し、それを呼び出してすべての答えを導き出します。 

機械学習 

AI に学習させ、継続的に改善させるため、機械学習は AI にとって不可欠です。明示的な指示がなくても、AI 内の機械学習によって、AI は使えば使うほど賢くなります。 

責任ある AI 

私たちが責任を持って AI を使う必要があるだけでなく、AI を設計しプログラミングする立場の人たちもまた、責任を持つ必要があります。技術者は、AI が依拠するデータが正確で偏りがないことを保証する必要があります。AI のアウトプットが正しく、偏見がないことを確認するためには、このような注意が必要です。  

意識 

「意識を持つ」とは、誰かあるいは何かが感情や感覚、情緒を認識していることを意味する形容詞で す。AI を描いた近未来映画では、ロボットが感覚を持つようになったり、人間のような感情を「感じる」ようになったりすると、登場人物の世界が破綻します。ハリウッドのドラマにはうってつけである一方、今日の AI は感覚を持っていません。幸せ、興奮、悲しみ、恐れの本当の意味を共感したり理解したりすることはできません。  つまり、たとえ AI が泣けるほど美しい短編小説を作ったとしても、AI は自分の作ったものが感動的だということを理解できません。単にプロンプトをこなしているだけで、次にどの単語を選ぶかをパターンで決めているのです。   1ニューヨーク・タイムズ「Here’s What Happens When Your Lawyer Uses ChatGPT 

マカフィー® トータルプロテクションを30日間お試しいただけます

マカフィー® トータルプロテクションを利用し、オンライン上での安全を確保している6億人以上のユーザーの仲間入りをしましょう。

FacebookLinkedInTwitterEmailCopy Link

最新情報を入手する

フォローして、マカフィーに関する最新情報を取得して消費者やモバイルのセキュリティ脅威について理解しましょう

FacebookTwitterInstagramLinkedINYouTubeRSS

以下からの詳細: インターネット セキュリティ

Back to top