- 週間ランキング
「社内に生成AIを導入した理由を教えてください(複数選択可)」と質問したところ、『リサーチ・分析のため(33.4%)』が最も多く、次いで『顧客対応の自動化のため(32.5%)』『メール・企画書などの文書作成のため(29.6%)』という結果に。生成AIは、特にリサーチ・分析、顧客対応、文書作成の効率化を目的として導入されていることが示された。
「生成AIを導入して、その効果に満足していますか?」と質問したところ、約9割が『とても満足している(30.4%)』『やや満足している(58.0%)』と回答。生成AI導入の満足度が非常に高いことがうかがえる。
「生成AIを導入してみて課題を感じましたか?」との質問には、約8割が『かなり課題を感じた(19.5%)』『やや課題を感じた(58.1%)』と回答。生成AI導入の満足度は高いものの、課題を感じている人も多いことが明らかになった。
<導入理由別満足度>
【かなり課題を感じた】
『リサーチ・分析のため(40.6%)』
『顧客対応の自動化のため(40.1%)』
『メール・企画書などの文書作成のため(38.6%)』
【やや課題を感じた】
『リサーチ・分析のため(34.5%)』
『顧客対応の自動化のため(32.7%)』
『メール・企画書などの文書作成のため(29.1%)』
【あまり課題を感じなかった】
『情報収集のため(25.8%)』
『顧客対応の自動化のため(24.7%)』
『リサーチ・分析のため(24.2%)』
【まったく課題を感じなかった】
『情報収集のため(34.3%)』
『顧客対応の自動化のため(28.6%)』
『メール・企画書などの文書作成のため(25.7%)』
『設計・デザイン案作成のため(25.7%)』
リサーチ・分析、顧客対応の自動化、メール・企画書などの文書作成を理由に生成AIを導入した人では『課題を感じた』と回答した人の割合が高いのに対し、情報収集を理由に生成AIを導入した人では『課題を感じなかった』と回答した人の割合が高いことが明らかに。情報収集など導入の目的がシンプルなら課題を感じにくい一方、リサーチ・分析や顧客対応の自動化など、精度や質が求められる目的の場合、課題を感じやすいことが分かった。
生成AIを導入して『かなり課題を感じた』『やや課題を感じた』と回答した人に、「生成AIを導入してみてどのような点に課題を感じましたか?(複数選択可)」と質問したところ、『データプライバシーの懸念(37.0%)』が最も多く、次いで『情報漏洩・セキュリティ面の懸念(36.8%)』『ハルシネーションの発生(30.8%)』という結果になった。データプライバシーや情報漏洩・セキュリティ面に関する懸念を持つ人が多く、機密情報の保護が重要な課題となっているようだ。また、ハルシネーションの発生によって事実とは異なる情報が生成されるリスクも問題とされている模様。
これらの課題を感じている人に「社内では生成AIの利用についてルールを整備していますか?」と質問したところ、課題別に以下のような結果になった。
【ハルシネーションの発生】
『すでにルールを整備している(45.2%)』
『現在、ルールの整備を検討している(35.7%)』
『ルールの整備に着手したが、まだ完了していない(13.7%)』
【情報漏洩・セキュリティ面の懸念】
『すでにルールを整備している(29.9%)』
『現在、ルールの整備を検討している(45.8%)』
『ルールの整備に着手したが、まだ完了していない(19.8%)』
【データプライバシーの懸念】
『すでにルールを整備している(30.1%)』
『現在、ルールの整備を検討している(41.2%)』
『ルールの整備に着手したが、まだ完了していない(25.3%)』
『データプライバシー』『情報漏洩・セキュリティ面』を課題だと感じている人は、社内ルールが整備されていないケースが多く、ルールの整備が課題解決に繋がる可能性が示された。一方、『ハルシネーションの発生』を課題とする人は、既にルールが整備されている割合が高いにもかかわらず課題が残っていることが明らかになり、ルール整備以外の対策が必要であることが示唆された。
【調査概要】「企業の生成AI導入」に関する実態調査
調査期間/2024年10月3日(木)~10月5日(土)
調査方法/PRIZMA(https://www.prizma-link.com/press)によるインターネット調査
調査人数/1,007人
調査対象/調査回答時に有料の生成AIを導入している企業のツール導入立案者または運用担当者と回答したモニター
調査元/株式会社Helpfeel(https://www.helpfeel.com/)
モニター提供元/PRIZMAリサーチ
興味本位で記者もAIで原稿を生成してみたことがあるが、結果としてはオモテに出せるような代物ではなかったという経験がある。もちろん、企業が導入する有料のAIではなく、誰もがお試しで使うことができる無料のものを使用したので「やっぱり無料バージョンは現実的ではないんだな」と早々に使用をストップしまったのだが、そのときに出来上がった原稿は今回の調査結果で幾度となくその名が登場した「ハルシネーション」、つまりAIが事実に基づかない情報や存在しない情報を生成したものだった。だが、個人レベルならば「やっぱりダメじゃん、使うのやめた」と瞬時に使用を中止できるが、企業が業務に導入したのなら話は別。一度動き出した歯車は、そう簡単にはストップできないのだ。
すべてをAIに任せきりにしてとんでもない状況を生み出してしまう前にリスク回避を行うのが、これからのAIとの共存には必要不可欠な要素。今回の調査を行った株式会社Helpfeelの「Helpfeel AI」は、同社独自の検索技術に米OpenAI社のAIをかけ合わせたもので、そのAI検索アルゴリズムは従来の検索速度に加えて自然な文章での回答精度も両立しているという。
FAQの回答記事やその記事に連動する意図表現は人間が作成するため、誤った回答や偽情報などのハルシネーションが発生せず、正しい情報が表示されるので、これなら金融や医療、行政など情報の正確性が求められる業界でも安心して利用できそうだ。