OpenAIのChatGPTが登場したことによって、多くのユーザーはAIに質問を投げかけています。しかし、ChatGPTのようなAIチャットには「重大なリスク」が存在します。そのリスクについて、海外メディア「The Verge」が解説しています。
関連:AI対応「新Bing」が素直すぎて秘密情報バラしまくり
*Category:
チャットAIがもたらす7つの重大リスク
マイクロソフトはAIチャット機能を「新しいBing」と呼び、Edgeブラウザに統合する予定です。一方、Googleは「Project Bard」と呼び、今後数週間のうちに提供を開始する予定です。
マイクロソフトのサティア・ナデラCEOはAIチャット機能を「現代のテクノロジーの風景を描き変える可能性を秘めた技術」と表現しています。もしかすると、この分野を制した者がWebの次に来るものを最初に作るチャンスを手に入れられるのかもしれません。
しかし、新しい技術には問題も付き物です。そこで、これからAIチャットの未来が直面する最大の課題を7つ解説します。
【1】AIによる間違った回答
AIチャットを支える技術である大規模言語モデル(LLM)は、デタラメな文書を生成したり、不適切な意見を出すことがあります。例えば、ありもしないことを真実であるかのように話したり、10kgの鉄と10kgの綿どちらが重い?という質問に答えられないなど、多岐にわたります。
多くのエラーは簡単に修正できるはずですが、すべてのエラーを完全に除去できるかどうかは不明です。そのため、AIが回答した内容をユーザー自身が正しいかどうかを判断しなければならないのです。
【2】「たった1つの答え」問題
検索エンジンが唯一の、明らかに決定的な答えを提供する「たった1つの答え」問題はさらに悪化するでしょう。この問題は、Googleが10年以上前に「スニペット」を提供し始めて以来、ずっと続いています。スニペットとは検索結果の上に表示されるボックスのことです。
以前、スニペットは米国大統領を誤ってKKK(アメリカ合衆国の白人至上主義を唱える秘密結社)のメンバーと呼んだことがあります。このような誤った情報は非常に危険です。AIチャットのインターフェースの導入はこの問題を悪化させる可能性を秘めていると言われています。
【3】脱獄AI
AIチャットを利用すれば、指示するだけでプログラミングができます。従来のようなプログラミングスキルは不要です。ただ、AIチャットには安全装置があり、違法性のある質問等には答えないようになっています。しかし、ユーザーの中にはAIチャットを意図的に破壊し、安全装置がない脱獄状態にしようとする者がいます。
AIチャットは、さまざまな方法で脱獄させることができます。例えば、エンジニアのふりをして一時的にセーフガードを解除するという方法です。
もし安全装置が無くなると、AIチャットで偽情報やスパムを生成したり、学校や病院を攻撃したり、爆弾を配線したり、マルウェアを作成する方法についてなどのアドバイスを手に入れられます。
【4】AIの「偏り」
ChatGPTの提供開始後、「偏向があるのではないか?」という議論がすでに始まっています。たとえばインドでは、「ChatGPT」がイスラム教やキリスト教の信仰対象についてのジョークは言わないにも関わらず、ヒンドゥー教の信仰対象に対するジョークはいうと非難されています。
AIチャットは、引用するソースによって回答が変わります。そのため、マイクロソフトは政治的偏向のバランスを取ろうとするのか?Googleは、信頼できるソースの線引きをどこで行うのか?という課題も発生しそうです。
◆ 関連:GoogleがチャットAI「Bard」正式発表、「ChatGPT」とのちがいは?