受託システム開発の現場で生成AIを活用するには?

AI

生成AIを業務で活用する機会が増えてきていると思います。
システム開発の現場でも例外ではなく、設計やテスト、コード作成といったさまざまな工程で利用が進んでいます。
ただし、その多くは「支援ツール」としての位置付けにとどまっており、利用頻度や効果には個人差があるのが現状です。
業務に欠かせないという人、全く使っていないという人、様々ではないかと思います。

本来であれば、生成AIを前提とした業務フレームワークを構築し、工数削減・品質向上・人員不足の補完といった成果につなげたいところです。
しかし、業務領域によっては思うように活用できていない課題も残っています。

開発形態の違い

システム開発には大きくわけて次の2つの形態があります。

✅️ 自社開発
  自社で開発したアプリやサービスを、外部顧客に提供したり社内で使用する。
  権利は自社にあり、複数のユーザーに利用してもらうことを想定。

✅️ 受託開発
  顧客からの要件に基づいてシステムを開発する。
  開発成果物(設計書やプログラムなど)は顧客に帰属する。

受託開発におけるAI活用の壁

自社開発であれば権利が自社にあるので比較的自由にAIを利用できますが、受託開発では事情が異なってきます。
設計書やソースコードなどの成果物は顧客の資産であり、そのまま生成AIに入力することは情報漏洩リスクにつながる可能性があるため対策が必要になります。
結果として、顧客の許諾を得るのが難しいケースが多々あり、AI活用のハードルが高くなっています。

リスクを下げるためのアプローチ

受託開発において生成AIを活用するためには、リスクを抑える工夫が欠かせません。
以下はいくつかのアプローチ例です。

アプローチ内容補足
マスキング固有名やビジネスロジックなど、機密部分を伏せてからAIに入力する。精度低下や情報欠落のリスクがあり、マスキング作業自体も負担となる。
一部機能に限定利用GitHub Copilotによるコード補完など、リスクなく使える機能に絞って利用。導入ハードルは低いが、効果は限定的になりやすい。
ローカルLLMの利用Ollama や LM Studio などを自社サーバや閉域環境で運用する。機能や精度はクラウドサービスに劣る可能性がある。
セキュアサービス利用ChatGPT Enterprise や Azure OpenAI Service など、機密性担保を重視した契約を利用する。社内調整やコスト検討が必要だが、リスクを外部サービス側で担保できる点で有力な選択肢。

手軽にできるが効果の薄いもの、効果は高いが敷居が高いものなどあります。組織のAI活用意識によっても左右されそうです。

おわりに

受託開発における生成AI活用は、「情報漏洩リスク」という壁によって制約を受けやすいのが現実です。しかし、マスキングやローカル利用、セキュアなサービス導入などを組み合わせることで、その壁を越える道は少しずつ見えてきています。

個人的には、トップダウンでセキュアなサービス利用を推進し、通常業務でも安心して活用できる環境を整えることが理想だと考えています。
ただし、組織のITリテラシーや文化(変化に積極的か、あるいは保守的か)によって、その取り組みの度合いは大きく異なるでしょう。

現在は模索の段階にありますが、まずはボトムアップで生成AIの活用を広げ、人員不足の解消やコスト削減、品質向上、開発期間の短縮につなげたいと考えています。そのためにも、生成AIの利用を前提とした業務プロセスへと変革していく必要があると感じています。

コメント

タイトルとURLをコピーしました