生成AIに関する労務管理の必要性
生成AI(生成的人工知能、ジェネレーティブAI)とは、人間が指示(プロンプト)を与えることで文章や画像を生成するAI(人工知能)の一種です。2022年11月にアメリカの企業OpenAIが自然な対話を通じて文章を作成できる「ChatGPT」を公開し、無料での利用も可能となったため、一気に普及しました。Microsoftのサーチエンジン「Bing」にもChatGPTの技術が活用されているほか、Googleが「Bard」を公開するなど、各社の開発競争が盛んになっています。
ビジネスの現場でも成果物作成にかかる人手や時間が削減でき生産性が向上する点や、新たなアイデアを生み出すためのツールとしての有用性などが高く評価され、利活用が進んでいます。その一方で、生成AIは発展途上の技術であるため、各種リスクの存在も指摘されています。そのため、企業としても明確なポリシーの下に、生成AIの利活用をする必要があります。そこで今回は、生成AIの利活用における労務管理上の注意点についてまとめました。生成AIには、文書生成、画像生成、動画生成とさまざまな種類がありますが、本記事では現在オフィスでもっとも利用されていると思われる文書生成AIを対象とします。
生成AI利用の危険性
生成AIの利活用に関して、労務管理上は有用性・危険性という表現を用いると対応を想定しやすいと思います。オフィスで生成AIの有用性を発揮してもらうために、その危険性を把握した上で先回りして対処することが、今後の労務管理上の重要な課題になるでしょう。
危険性については大別すると三つの点が指摘されています。
危険性(1) | 個人情報などのプライバシー関連情報や秘密(機密)情報の流出可能性 |
---|
危険性(2) | 著作権など知的財産権の侵害可能性 |
---|
危険性(3) | 誤情報や悪意のある情報の拡散可能性 |
---|
文書生成AIは「LLM(大規模言語モデル)」と呼ばれる人工知能の一種です。われわれが何らかの指示(プロンプト)やデータを入力して、何らかの処理が行われ、何らかの文書が生成され出力されるという構造になっています。この構造からは、「そもそもこのプロンプトを入力して良いのか」と「出力された文書を使用して良いのか」という2段階において危険性の有無を考えることが最低限求められることになります。危険性(1)については入力段階、出力段階ともに問題となるでしょう。対して、危険性(2)と危険性(3)は生成された文書が正しいか、他者の権利を侵害していないかという出力段階が主に問題となります。
「分ける」と「分かる」で対策を
これらの危険性を意識しつつ、生成AIを利活用するためには、「分ける」と「分かる」という二つの視点からの検討が必要です。