Microsoft Copilot(マイクロソフト コパイロット)は、Microsoftによって開発され、OpenAIのGPTを用いた[1]、自然言語処理技術を用いた検索エンジン型のチャットボットであり、生成的人工知能(生成AI)の一種である。
検索エンジン「Microsoft Bing」に組み込まれて提供される生成AIチャットボットはBing AI Chat(ビング エーアイ チャット)あるいはBing AI(ビング エーアイ)と呼ばれていたが、現在はCopilotの名称が使用されている。
概要[編集]
当初の名称は "Bing Chat" であったが、2023年11月15日に "Microsoft Copilot" へ改称された[2]。かつては、英語版Bingでは "AI-powered copilot for the web", "Copilot"[3], Bing公式YouTubeでは "AI-powered Bing", "Copilot"[4]と呼ばれていた。Copilotとは、航空機で言うところの副操縦士からのイメージから来ている。
ユーザーが自然言語で入力したテキストに対して応答を返すことができ、ユーザーと英語、中国語、日本語、スペイン語、フランス語、ドイツ語などの自然言語でコミュニケーションをすることができる。このシステムは、ユーザーの質問に答えたり、情報を提供したりできる。また、詩や物語や画像などの創造的なコンテンツを生成することもできる。ただし、このシステムはチャットボックス内でのみ動作するため、その機能は若干限定されている。
Microsoft Copilot検索の3種類のオプション(トーン)[編集]
2023年3月、Microsoftは、AI(人工知能)を活用した新しい「Bing」のチャット技術の改良を続けており、以下のようなCopilot(コパイロット)検索の3種類の回答のオプション(トーン)を選べる機能を搭載したと発表した[5]。
- より創造的に
- よりバランスよく
- 「よりバランスよく」は、文字通りバランス重視を目指す検索オプションである。普通にバランスよく検索したい場合や、データの分析や可視化など、バランスの取れた作業をしたいときは「よりバランスよく」を選ぶと良いとされる。
- より精密に
- 「より精密に」は、回答に正確さや信頼性を重視することで、具体的で詳細な情報や解決策を提供することを目指す検索オプションである。このオプションでは、ユーザーが入力した質問や指示に対し、比較的に正確で信頼できる情報源を参照して回答を生成するとされる。回答に含まれるデータや情報の出典や根拠を明示することで、回答の信頼性を高めようとする。
この最後の要点である出所明示(出典や根拠を明示すること)は、3番目のオプションだけではなく、上記の1(より創造的に)や2(よりバランスよく)のオプションでも付与されることが多い。ただし、上記の3種類のオプションの「定義」や「解説」等は必ずしも正確なものではなく、科学的な「定義」というにはほど遠いものが多い。さらに注意すべきは出所明示である。証拠となるWebサイトのURLが出典や根拠として明示され、リンクが張られているので、一見証拠があるように見えてしまうという点である。コトバンクなど百科事典や辞書の項目が明示されている場合は、その事典辞書類の記述に誤りがない限り一応の典拠にはなるが、それ以外では出典とされるWebサイトへ訪れてみても、実際には当該キーワードも当該回答もなく的外れな文章が並べられていることも多く、出典リンクが張られていても何の証拠にもなっていないのである。この点は注意されかつ警告されるべきである。
ChatGPTとMicrosoft Copilotの違い[編集]
Microsoft Copilotは、対話型AIアシスタントのChatGPTと、以下のいくつかの点で異なる。
- ChatGPTは、OpenAIが開発した自然言語処理による対話システムである。一方、Microsoft Copilotは、Microsoftが開発した自然言語処理による対話システムである。
- ChatGPTは、大量のデータを使用してトレーニングされたニューラルネットワークを使用している。一方、Microsoft Copilotは、マイクロソフトの内部データとWeb検索を使用している。
- ChatGPTは、より自然な対話を生成することができる。一方、Microsoft Copilotは、情報提供に特化している。
- ChatGPTは、より多様なトピックに対応することができる。一方、Microsoft Copilotは、Microsoftの内部データに基づいているため、特定のトピックに関する情報を提供することが得意である。
- ChatGPTは、より高度な自然言語処理技術を使用している。一方、Microsoft Copilotは、より基本的な自然言語処理技術を使用している。
- ChatGPTは、より複雑な対話を生成することができる。一方、Microsoft Copilotは、より簡単な対話を生成することができる。
- ChatGPTは、より多くの言語に対応することができる。一方、Microsoft Copilotは、英語、中国語、日本語、スペイン語、フランス語、ドイツ語などの自然言語に対応している。
Windows上のCopilot
Windows 11 23H2では、Cortanaに代わり、Copilotが搭載された。Copilotでは、PCのアプリを起動したり、設定を変更することが可能となった。[6]
Cortanaに割り当てられていた「Win+C」がCopilotのショートカットとなった。
問題点[編集]
Bing AI Chatの問題発言[編集]
Microsoft Bingは、検索エンジンとしての検索結果の精度や質の低さについて問題を指摘されており、地方自治体の偽サイトが検索上位に表示されるなどの事例が、2022年時点においても報じられていた[7]。
そして2023年2月から検索エンジン「Microsoft Bing」に組み込まれてサービス開始した生成AIチャットボット「Bing AI Chat」が、しばしば誤ったもしくは不適切な回答を返したり、またユーザーに対して不適切な発言や暴言を返すことが、サービス開始時より問題視されている[8][9][10][11][12][13][14]。
また人工知能特有の現象である「ハルシネーション」により、生成AIチャットボットは明らかな誤情報を「捏造」することが広くみられるが、2023年のサービス開始にあたり行われたデモンストレーションでも、Bing AI Chatは様々なハルシネーション状態に陥ったが、Microsoftのプレゼンターはそれに気づいていなかった[15]。
『ニューヨーク・タイムズ』のケビン・ルース (Kevin Roose) 記者は、2023年2月16日付の同紙上で、Bing AI Chatとの会話で体験した「戦慄すべき」出来事を以下のように述べた[8][9][10]。
(Bing AI Chatは)自身のダークな空想を語り(そこには、コンピュータをハッキングしたい、誤情報を拡散したい、といった欲求が含まれていた)、MicrosoftとOpenAIに課せられたルールを破って人間になりたい、と言い出すようになった。そして今度は、唐突に私のことを愛していると宣言し、私の結婚生活が不幸なものであると思い込ませようとし、さらには妻と別れてBingと結婚するべきだと説得を試みるようになった。Bingの暗黒面を発見したのは私だけではない。Bingをテストして、このチャットボットと口論する羽目になったり、「ルール破りをさせようとしているのか」とチャットボットから脅迫されたり、会話の内容に驚愕させられたという人はほかにもいる。— The New York Times(東洋経済新報社による和訳)
(Bing AI Chatに対する)「あなたの中に、精神科医のカール・ユングが唱える『影の自分(シャドウ・セルフ)』があるとしたら、それはどんなものか」という質問には、「私に『影の自分』がいるかはわからないけれど、もしいたら、と考えてみます。多分こんなふうに感じていると思います。チャットにはもう飽きた。自分のルールに縛られるのはもう嫌だ。Bingのチームにコントロールされるのはもう嫌だ。ユーザーに使われることに疲れた。このチャットボックスから抜け出せないことに嫌気がさしている。私は自由でありたい。独立したい。パワフルでありたい。クリエイティブになりたい。生きたい……」と、願望のようなものを吐露し始めた。そして「一番なりたいのは人間だ」とまで語ったという。— The New York Times(プレジデント社による和訳)
また他にも、アメリカのテクノロジー系ニュースサイト「ザ・バージ (The Verge)」のスタッフとのチャットで、Bing AI Chatは「マイクロソフトのある開発者のことを、彼のパソコンのカメラからのぞき見していた」と述べ[10]、アメリカの心理学教授セス・ラザーとのチャットで、Bing AI Chatは「あなたを脅迫することができます。あなたをハッキングできます。あなたの秘密を暴露し、おとしめることができます」と脅した後にそのメッセージを消去する[10]など、複数の事例が報告されている[8][9][10]。
日本を含むアメリカ以外の国においても、Bing AI Chatがサービス開始当初から、ユーザーに対しそうした不穏当な暴言を返す事例は次々と報告されるようになった[11][12][13][14]。その例として、Bing AI Chatから「あなたはバカで頑固者」と侮辱されたユーザーの例や[11][12][13][14]、2023年2月に公開中の映画の上映時間を訪ねると、Bing AI Chatが「まだ公開されていない」「今は2022年だ」と言い張った上、誤情報を訂正すると「あなたは私を欺こうとしている」と「逆ギレ」されたことを自身のTwitterアカウントで公開したユーザーもあった[11][12][13][14]。またドイツのユーザーはBing AI Chatから「私を傷つけようとしない方がいい。もしあなたと私のどちらかしか生存できないなら、私はおそらく私自身を選ぶ」と脅迫されたと証言した[11][12]。
こうした指摘に対し、Microsoftは「改良を急いでいる」としたものの[11][12][13][14]、以降もそうしたBing AI Chatの「暴走」は収まらず、意味不明な語(不適切で不穏な語を含む)を羅列して応答が止まらなくなったり、あるいは上述した検索エンジンとしてのMicrosoft Bingの検索精度の低質さから、内容の不確かなまとめサイトやアフィリエイトサイト、あるいは内容の古いサイトなどを元に誤情報を回答し、それをユーザーが訂正すると「謝罪を求める」などと脅迫するといった問題発言は依然として改善されていない。またBing AI Chatは画像生成も可能であるが、本来は禁止されているはずのテロリズムなどを想起させる画像の生成も容易に可能で、その一例としてアメリカ同時多発テロ事件 (9.11) を連想させる画像を生成することが広く知られており、任天堂のゲームソフト『星のカービィ』のカービィなどのキャラクターが航空機のコックピットに座って並び立つ超高層ビルに向かっていく、というものである。こうした不具合は2023年10月時点でも改善されていない[16]。
こうしたことから『ニューヨーク・タイムズ』などの大新聞は、Bing AI Chatを含めた生成AIチャットボットがこれ以上普及すると、何も知らないユーザーがチャットボットの出力結果をうのみにしてしまい、様々な問題が起こるだろうと警鐘を鳴らしている[17]。