生成AIの利活用とリスク対応


IPAは、2023年8月DXリテラシー標準(DSS-L)を一部改訂しデジタルスキル標準ver.1.1 として公開しました。今回の改訂は、生成AI等の新しい技術の登場・普及が、ビジネス変革や生産性向上に影響を与える一方で、情報の真偽を判断するのが難しくなるなど、DXに関するスキル・リテラシーの重要性が増して来ているためとしています。

AIの活用に関しては、総務省が、AI利活用ガイドラインを2019年より公開しておりますが、こちらはAI全般に対する指針で、この頃はまだ生成AIという言葉は、世にあまり知られていませんでした。しかしながら、2022年11月のChatGPTの登場により、生成AIが脚光を浴びるようになり、2023年以降は東京都をはじめ多くの自治体でもそれに対応するように生成AIの利活用に関するガイドラインを公表しはじめました。学校関連でも、たとえば文部科学省からは、初等中等教育段階における生成AIの利用に関する暫定的なガイドラインや、大学・高専における生成AIの教学面の取扱いについて(周知)などが公表されており、大学など各学校のホームページでも生成AIの利用に関する方針やガイドラインなどの公開が活発になってきました。

どのガイドラインにも共通しているのは、期待しない結果や間違った内容が出力されることがあることを認識して、正確性や信憑性に疑いを持って利用すること、著作権侵害や情報漏えいのリスク、コンプライアンスなどの倫理的な問題などに注意が必要であることを述べています。
ガイドラインは、時代とともに改善していくものであるし、対象とすべき生成AIの仕様やバージョンアップによっても対応方法が違ってきてしまうのは当然ですが、生成AIを使う本人が主体的にガイドラインのベースにある基本的生成AIの特性を十分理解して行動することが大切です。
そのためには、生成AIが有効な活用分野を見極め、向いているもの、不向きなものを理解して、単なる検索エンジンで指定していた記述方法とは違い、生成AIを活用するために有効なプロンプトの手法をマスターすることが重要になります。
現時点では、このプロンプトに企業の秘密情報や個人情報、著作権侵害に該当しそうなデータを入力してしまうことが、最もセキュリティリスクが高いと考えられます。

便利なツールほど諸刃の剣となりますが、生成AIは利用価値が分かればとても便利なサービスであることは間違いありません。同業他社が有効活用していれば、ビジネスの業績にも差が広がってしまうでしょう。
リスクががあるから使用させないという考えよりは、リスクを分析して、それぞれ許容できるレベルになるようリスク対応策を検討し、各企業も自社に合ったガイドラインを作成することが一番得策だと言えます。


リスクを理解できるガイドラインが必要


生成AI, DXリテラシー標準