Copilot+ PCが発売! ますますAI利用が加速する?
2024年5月にマイクロソフト社から発表されたCopilot+ PCは、AIを処理するための超高速NPUを搭載した“AI活用のためのWindowsパソコン”です。キーボード上の「Copilotキー」を押すと、AIアシスタントのCopilotがすぐに起動し、直感的にAIを利用できるようになります。
また、手描きと文字情報からほぼリアルタイムで画像を生成する「Cocreator」や、Adobeなどのクリエイティブツールとの連携、ビデオ会議での背景ぼかしや音声のノイズ除去などで映像と音声を最適化する「Windows Studio エフェクト」の強化なども強みと言えます。
一方、以前に閲覧したコンテンツを呼び出せる「リコール機能」は、セキュリティ上の懸念が判明したため、2024年9月19日時点では、Windows Insider Programメンバーにのみプレビュー版が提供されています。十分なフィードバックが得られれば、Copilot+ PCの全てでプレビュー版を利用できるようになる予定です。
さまざまな新機能を搭載したCopilot+ PCはすでに複数の企業から発売されており、今後、さらに多くの企業が本格導入を検討するでしょう。また、生成AIの技術進化が進むことで、AI活用は一層加速すると考えられます。
その際、社内でAIを利用する際のガイドラインにあたる「AI利用ポリシー」が十分に整備されていないと、予期せぬトラブルを招く恐れがあります。
AI利用ポリシーが不十分な場合に起こり得るトラブル
AI利用ポリシーが適切に制定されていないと、どのようなトラブルが起こり得るのでしょうか。想定されるトラブルを以下に紹介します。
意図せず著作権を侵害してしまう
例えば、従業員が画像や映像を制作しようとしてAIを利用した際、AIがすでに存在する著作物に似た画像や音楽データなどを提案してくる可能性があります。このデータをそのまま利用してWeb公開や商品化を行った場合、著作権を侵害する恐れがあります。もし著作権者に発見された場合、著作権侵害で訴えられるリスクもあるでしょう。
社内情報や個人情報などを漏えいしてしまう
従業員がAIでテキストやデータを作成する際に、社内情報や個人情報をプロンプト(AIへの指示)に記載したとします。もしこのAIにセキュリティ面で懸念がある場合、プロンプトに記入した情報が再学習され、社外の第三者に知られてしまう可能性があります。このような情報漏えいによってトラブルが発生し、会社としての対応を迫られる事態になるかもしれません。
ディープフェイクに気づかず、詐欺被害に遭う
ディープフェイクとは、AIによって生成されたフェイク画像や動画のことです。これは、詐欺事件やサイバー攻撃の手口として利用されることが懸念されています。
実際、香港の多国籍企業の財務担当者が、AIで合成された同僚の画像を本物だと信じ、その画像を利用した詐欺グループの一員とやりとりし、約38億円を詐欺グループに送金してしまう事件が発生しました。このようなディープフェイクによる事件に巻き込まれるリスクを考慮しておく必要があります。
AIの誤情報を信じて重要な社外向け資料を作成してしまう
例えば、社外に配布するための重要な資料を作成する際にAIで情報を検索したとします。このとき、AIが提案した情報を十分に精査しないまま資料に掲載すると、誤った情報が対外的に公表されるリスクがあります。
バイアスのかかった回答を信頼してしまう
ジェンダーや人種、宗教などのデリケートな問題に関してAIに質問する際には、特に注意が必要です。例えば、AIが偏ったデータをもとに不適切な回答をした場合、それを安易に信じて社内で共有してしまうと、意図せず他者を傷つけたり、社内外の信頼を損なってしまったりするリスクがあります。
Copilot+ PC時代に必要なAI利用ポリシーとは
これからAIが盛んに活用されることを見越して、どのようなAI利用ポリシーを制定するべきなのでしょうか。まずは、以下四つの項目を意識しておくと良いでしょう。
利用できるAIツールや利用環境を定める
まずは、利用対象となるAIツールや利用できる環境を明記し、対象外のツールや環境での利用を防ぐことが重要です。例えば、ある官公庁では、利用できるツールを「Microsoft Copilot」と「Azure OpenAI Service」の二つに限定しています。さらに、入力データが学習目的で利用されたり、サーバー側に保存されたりしないような制限を設け、利用環境を整えています。
起こり得るリスクを明記する
次に、AI利用によって起こり得るリスクを明確に記載します。例えばあるIT企業では、「誤った情報が生成されるリスク」「著作権を侵害するリスク」「情報漏えいを引き起こすリスク」について具体的に記載しています。このようにリスクを従業員に理解させることで、トラブル発生の可能性を低減させることができます。
守るべきルールを決める
従業員が遵守すべきルールを具体的に定めることも重要です。例えばある官公庁では「個人情報や機密性の高い情報を入力しない」「すでにある著作物に似た文章を生成しない」「AIが生成した回答の根拠を必ず確認する」といったルールを設定しています。
主な利用方法を提示する
AI利用のルールは不可欠ですが、企業としてはAIを活用して業務効率化を進めたいという意向があるはずです。そのため、AIの“正しい利用方法”を提示する項目を設けると良いでしょう。例えば「文章作成の補助」「アイデア出しや整理」「ローコードの生成」といった具体的な利用方法が挙げられます。
まとめ
Copilot+ PCが発売され、企業におけるAI活用はますます加速すると予想されています。AI利用に関するトラブルを未然に防ぐためには、利用できるツールや環境、リスク、ルールを明確に定めたAI利用ポリシーを制定することが不可欠です。社内で安全にAIを活用し、業務効率化や事業成長を促進しましょう。注意点として、 ARM系CPUを搭載したモデルでは、一部のアプリケーションやAIツールに互換性の問題が生じる可能性があります。導入前にシステム環境を確認することが重要です。
著者紹介:金指 歩
ライター・編集者。新卒で信託銀行に入社し営業担当者として勤務したのち、不動産会社や証券会社、ITベンチャーを経て独立。金融やビジネス、人材系の取材記事やコラム記事を制作している。