
“生成AI”が変革するエンタメの未来とは?
Stability AIとのパートナーシップの理由、コロプラのAIポリシー
-
上席執行役員 CIO菅井 健太
旅行関連Webサイトを運営する企業のサーバーサイドエンジニアとして従事。2010年にコロプラに入社し、プロダクトマネージャーを経験。現在は上席執行役員 CIOとしてサーバーサイドエンジニアとインフラエンジニアの組織を管掌。
-
IT戦略推進部 部長斎藤 博
ERPシステムの導入・運用支援を行うSIerに従事。2014年にコロプラにサーバーサイドエンジニアとして入社し、『コロニーな生活』のエンジニア・ディレクター等を経て、現在は情報システム部門とサイバーセキュリティグループ部門の部長を務める。
-
上席執行役員 CLO山崎 聡士
法学部卒業後、半導体の商社に営業職として入社後、法務へ異動となり、以降は一貫して法務に従事。以後、システム開発会社、DRAMメーカーを経て、大手電子機器メーカーに14年間在籍し、法務部の部長を務めた。2020年にコロプラに入社し、現在は上席執行役員 CLOとして法務知財部を管掌。
近年、ChatGPTやStable Diffusionなどの登場をきっかけに、"生成系AI"が急速に社会へ広まりました。テキスト、画像、音声、動画といった多様な領域で、これまで人間が時間をかけて行っていた創作・制作作業を瞬時に支援してくれるこれらのAI技術は、多くの企業がDX(デジタルトランスフォーメーション)の文脈で導入を検討する大きな要因となっています。
一方で、とりわけ日本のクリエイターコミュニティにおいては、著作権やプライバシー、表現の正当性、仕事を奪われるかもしれないという危機感もあり、賛否両論が渦巻いているのが現状です。そのような中、最新のテクノロジーとアイデアを掛け合わせて数多くのヒットタイトルを生み出してきたコロプラは、生成AIを「どう活かし、どう付き合うか」を、早くから真剣に模索していました。
今回、「生成AI」に対するスタンス、法務的なポリシー、業務への取り入れ方、今後の展望などについて詳しくうかがいました。クリエイターやユーザーさまからの意見に対してどのように向き合っているのか、社内ガイドラインはどのように策定したのか、そして「人とAIの共存」によってゲーム開発はどのように変わっていくのか。ここでは、そのインタビューの模様をお届けします。
- INDEX
- コロプラが考える「生成AI」導入の背景と意義
- 「DX」「UX」──コロプラが生成AIに期待する二つの視点
- 生成AIをめぐる批判や不安にどう向き合うか
- 欧米と日本の規制・ガバナンス動向
- Stability AIとの提携と「AIポリシー」策定の理由
- 著作権侵害・ハルシネーション・プライバシー等のリスクと対処
- 社内クリエイターとの対話──「使いたくない」声へのアプローチ
- ゲーム開発における生成AIの可能性
- 今後の展望──「クリエイターとAIの共存」へのメッセージ
- まとめ
コロプラが考える「生成AI」導入の背景と意義
──生成AIについては、ChatGPTが一般公開されてから爆発的に注目度が上がった印象がありますが、コロプラ社としてはどのような経緯で関心を持ったのでしょうか。
菅井 はい。確かに世の中的にはChatGPTが大きな転機となりましたが、AI全体の議論そのものは、2010年代に入った頃から国際的にも盛んに行われてきました。当社としても、AIをどう活用していくかという方向性は以前からの大きなテーマでした。
ところが、ChatGPTのように「文章を生成するAI」が出てくると、コンテンツをつくるうえでの資料作成や、アイデア出し、あるいはシナリオのチェックといった部分にも活用できるようになってきた。さらにStable Diffusionなどの画像生成AIもここ数年で一気に進化してきたので、「これをどう取り入れれば、ユーザーさまに新しい体験を届けられるんだろう」という関心が高まってきました。
当社のミッションの一つに「最新のテクノロジーと独創的なアイデアで、"新しい体験"を届ける」というビジョンがあります。ブロックチェーンに関してもそうですが、早い時期にいったん検証してみるのは大事なんですね。
例えば2017年頃、一度ブロックチェーン技術が盛り上がったときにいまではないと判断したり、それが最近になって別のプロジェクトへと発展させる動きも出てきました。生成AIもまさにそうした「常にアンテナを張り、使いどころを見極める」対象だと考えています。
「DX」「UX」──コロプラが生成AIに期待する二つの視点
──コロプラで、生成AIを活用するにあたっての基本的な考え方や目的を教えていただけますか。
菅井 大きく二つの柱があると考えています。一つはDXですね。ゲーム開発はいろいろなクリエイティブ工程に時間やリソースがかかります。そこを効率化する、業務改善を図るというのが一つの軸。そしてもう一つが、新しい体験(UX=ユーザーエクスペリエンス)をユーザーさまに届ける手段としてAIを活かすこと。この二軸で「生成AI」に向き合っています。
業務効率化という意味では、アイデア出しの段階で使えるテキスト生成や、キャラクターラフを量産できる画像生成などが有力です。たとえば「こんな雰囲気のキャラクターをデザインしたい」といった方向性を関係者間で手早く可視化するのに役立ちます。実際の製品レベルのイラストはアーティストが最終的に仕上げますが、コンセプトアートをAIが出してくれるだけでも、コラボレーションのスピードが格段に上がります。
斎藤 一方で、当社としては「新しい技術であるAIをどうユーザー体験に落とし込むか」も大切な視点です。単純に「AIが喋ってくれるNPCを出しました」だけでは面白くない。どんなゲームのシステムにすると、AIが活きてくるのか。あるいは「ルールベースをはみ出した会話」を可能にして、ユーザーが驚くような体験をどう演出するか。そこは今後の大きな課題でもあり、強い期待を寄せている部分です。

生成AIをめぐる批判や不安にどう向き合うか
──昨今、特にSNS上では「AIが人の仕事を奪う」「イラストレーターの絵を無断で学習しているのではないか」といった不安や批判の声も聞こえます。コロプラとしての見解はいかがでしょうか。
菅井 新しい技術が出てきたときには、どうしても「よくわからないもの」への不安が先行しがちです。特に日本はアニメや漫画の文化が根強く、クリエイター、イラストレーター人口がすごく多い。そういう方々が「自分の作品を勝手に学習データに使われているかもしれない」「イラストの仕事が減るかもしれない」という危機感を強く持たれるのは、自然な流れだと思います。
また、欧米では規制やガイドライン整備が進んでいる一方で、日本国内では法整備や倫理ガイドラインの策定がまだ完全ではなく、AI全般に対する疑念や批判がSNS上で炎上しやすい側面もあります。ただ実際には、AI活用を前向きにとらえる企業や自治体、研究機関も着実に増えていて、地道に「安全な使い方」を模索している最中でもあります。当社としても、外部のパートナー企業や業界動向をチェックしながら、社内でのガイドラインを策定し、クリエイターに不安を与えないよう配慮しています。
山崎 正直、「AIがクリエイティブを侵害する」と決めつけるのは、少し早計だと思います。コロプラのAI活用の方針は、基本的に作品を完成させるのは人間であることを前提にしていますので、AIがつくったものをどう活かすかも人間次第です。たとえば、イラストレーターの方の描き方が「AIに学習データを与えるだけでよくなる」という話ではなく、「AIが提案してくれたアイデアを活かして、より質の高い作品を生み出す」という未来像のほうが、今後の発展性を感じますね。
欧米と日本の規制・ガバナンス動向
──ところで、欧米ではすでに「AIガバナンス」「AIポリシー」などが議論されています。日本、欧州、米国での比較はどんな状況でしょうか。
山崎 ざっくり言うと、EUは「人権・プライバシー保護重視」で、包括的な法規制を作り、リスクが大きい分野には厳しい制限を課すという方針です。罰金も相当高く、もし違反したら最大で3500万ユーロまたは違反企業の年間世界売上の7%のいずれか多額の方を支払わなければいけない。
一方、アメリカは「イノベーション重視」で、基本的には民間の自主規制に任せる流れで、今のところ、連邦レベルでの包括的規制はありません。また、州レベルでは一部規制が始まったところもありますが、昨年、成立直前のカリフォルニア州AI規制法案が州知事の拒否権で不成立となった例もあり、シリコンバレー発のAIベンチャーを規制しすぎるとアメリカの国際競争力が落ちるという考え方が根強いですね。
日本はその両方の中間をとる「ハイブリッド型」という感じでしょうか。経済産業省や文化庁など、関係する省庁が相次いでガイドラインやガイダンスを出しており、法的拘束力はないものの、事業者が守るべき指針を示しています。法規制の議論も始まっていますが、基本的に規制は最小限になる方向性です。そのような状況で、当社としても「法整備を待つのではなく、自分たちでしっかりガイドラインを作るべきだ」というスタンスで取り組んできました。
Stability AIとの提携と「AIポリシー」策定の理由
──そういったリスク管理や社会的な議論の流れの中で、コロプラが「Stability AI」とパートナーシップを結んだ経緯についてお聞かせください。
菅井 Stability AIはStable Diffusionを開発している企業で、画像生成AIの分野では最も有名なプレイヤーの一つです。海外での法的な課題や様々なクオリティ面の課題にいち早く向き合ってきた実績があるので、そちらとの連携によって、クリエイティブ、ガバナンス双方のノウハウを得られると判断しました。
将来的に、ゲーム内で高度な画像生成を活用するとなれば、やはり最前線のプレイヤーから学ぶのが近道だと感じたんです。
山崎 コロプラ社内では2023年初頭から、すでに「どのように安全、安心に生成AIを活用するか」という議論をしており、社内ガイドラインも作成していました。「急にやってます」というよりは、ガイドライン作成の背景にある、もともと当社が考えていたAIへ向き合う姿勢を、この度「AIポリシー」として、きちんと社内外に示すことで、社員も安心して使えるし、クリエイターやユーザーにも透明性を担保できると考えています。
著作権侵害・ハルシネーション・プライバシー等のリスクと対処
──具体的に、生成AIを運用するにあたって想定されるリスクと、それへの対策をどのように整備しているか教えていただけますか。
山崎 リスクは現状考えられるものがいくつかあり、一つ目は著作権侵害についてです。
AIが学習に利用しているデータの出所が不明瞭であった場合、他人の著作物を無断で参照していないか、企業として把握しづらいのが現状です。
当社では用途別に使用可能な生成系AIを厳密に指定したうえで、たとえばAI生成物と紐づけて生成時プロンプトの保存をするなど、透明性とトレーサビリティを確保しています。万一問題が起きても、誰がいつ何を入力して、どういう結果を得たのかを社内で検証できるようにしています。また、用途別のリスクに応じて、人による内容確認等をするなどの対策も講じています。
二つ目は個人情報・プライバシーや機密情報に関してです。ユーザーさまや社内の機密情報がAIモデルへ入力され、第三者に漏洩するリスク。こちらは「入力してよい情報」「入力してはいけない情報」を機密性レベルに応じてルール化を行っています。
斎藤 ハルシネーション、誤った情報・回答にも、しっかりと対策を立てています。
山崎 ハルシネーションとはAIが、まるで本当らしく誤った情報を回答すること。これに関しては「AIの回答をそのまま信じない」「常に批判的に評価/検証する」ことを徹底しています。
また、偏った学習データにより、AIが差別的・不適切な出力をする可能性もあります。こちらも倫理的に問題ないように利用時の注意事項を定め、可能な限りリスクを下げる取り組みを行っています。
そして、AIシステムがハッキングされ、意図せぬ情報流出が起こるリスク。こちらは当社のサイバーセキュリティ部門が、利用する生成AIのセキュリティ対策状況を総合的に評価し、利用時の注意事項を利用者に周知しています。
こうしたリスクをすべてゼロにするのは不可能に近いですが、ガイドラインで明文化し、環境変化の変化に合わせて細目にルールをアップデートしていくことで、リスクを最小限に抑えられると考えています。

社内クリエイターとの対話──「使いたくない」声へのアプローチ
──社内においても、AIに抵抗感を持つクリエイターは一定数いるのではないかと思います。そのあたりはどのように折り合いをつけているのでしょうか。
菅井 やはり「自分の仕事がAIに奪われるかも」「AIのクオリティを疑っている」「学習データが不正に集められたものかもしれないから嫌だ」といった声はあります。私たちが無理に強制することはありませんが、できるだけ「安全なAIモデルだけを推奨していること」を丁寧に説明しています。実際にツールを使ってみて「意外と役立つ」「こういう確認に便利なんだ」とポジティブに捉える人が徐々に増えています。
斎藤 社内研修のような形で「こんな風に使うと業務効率化になりますよ」という事例紹介を行うのも効果的でした。たとえば文章チェック、コードのバグ探し、キャラクターのコンセプトアート作成など、具体的なシーンを示すんです。そうすると「これなら業務が楽になる」「自分の表現に幅が広がりそう」と考えてもらえるケースも多いです。
あくまで最終成果物は人間の手で整える必要があるし、「AIはパートナー」という位置づけで浸透させるようにしています。

ゲーム開発における生成AIの可能性
──今後ゲーム、エンターテインメントの領域で、今後生成AIによる大きな変化が起こるとしたら、どのようなところが期待できますか。
菅井 大きく分けて二つあると思います。一つは「開発工程での生産性向上」。先ほどお話ししたとおり、アートやシナリオ、サウンドなどに関するアイデア出しと初期プロトタイプの作成が高速化するので、クリエイターがより「面白さを突き詰める」部分に集中できるんです。これはすでに相当インパクトが出ていて、プロジェクトによっては以前の半分以下の時間で試作品を作れたり、デザインの方針がすぐ固まったりします。
もう一つは「ゲームのコンテンツに直接AIを組み込む」ことで、新しい体験が生まれる可能性。例えばNPCは、プレイヤーが話しかけると毎回同じ返答しかしないですよね。そこに生成AIを取り入れれば、想定外の会話やストーリー分岐が可能になるかもしれない。ただ単純に高度なNPCを作っても面白くはないのでまだ試験段階ではありますが、「プレイヤーごとに異なる体験を生み出すゲーム」が登場してくるのではないかと思っています。
斎藤 ゲームの歴史を振り返ってみると、2Dから3Dへの移行、ネットワーク接続によるオンライン化など、画期的な技術革新のタイミングが何度かありました。生成AIもそれに匹敵する「技術的な転換点」になりうると感じています。ただ、ユーザーさまに違和感なく提供するためには、単純にAIを使えばいいというわけではなく、「ゲームとしてのコントロール」や「演出の巧みさ」といったデザインが重要です。そのあたりの試行錯誤が、本当に面白いところですね。

今後の展望──「クリエイターとAIの共存」へのメッセージ
──最後に、コロプラとして「AIとクリエイターの関係性」をどう築いていきたいか、メッセージをお願いします。
斎藤 生成AIは、あくまで「人間の創造力を拡張してくれるツール」だと考えています。最終的に判断し、作品を仕上げるのは人間ですが、その過程でAIが伴走者として多彩なアイデアやラフを提案してくれるのは、とても魅力的です。私自身も個人で試してみると、「これは自分ひとりでは思いつかなかった」「もうちょっとこうしたら面白くなるんじゃないか」というトリガーになって、創作意欲をよりかき立てられますね。
山崎 法務的な観点では、リスクをゼロにすることは不可能なので、いかに「安心して使える環境」を整えるかが重要です。常に最新の規制状況や技術動向を追い、ガイドラインを整備し、Stability AIとの連携でノウハウを吸収するなどして、クリエイターや社内メンバーが安心してAIを活用できれば、それだけユニークで面白いコンテンツをユーザーに届けられると思います。
菅井 私はエンジニアとして、AIによって「今までできなかったこと」ができるようになる期待感を強く持っています。たとえば、キャラクターデザイン一つとっても、AIが下地を作り、そのうえで人間が肉付けしていくことで、これまでになかった表現が生まれる。さらに、それを元に「会話やストーリーの生成」にもAIを活かせば、ゲーム内の世界観がこれまで以上に多様に拡張されるかもしれません。そういう可能性を追求しながら、今後もクリエイターとAIが補完し合っていけるような土台づくりを続けたいです。

まとめ
コロプラは、エンターテインメント産業における「生成AI」に大きな可能性を感じており、その法務的問題やクリエイターとの共存について、早期の段階から具体的に取り組んできました。
単純な効率化だけでなく、「最新のテクノロジーで"新しい体験"を届ける」という姿勢を大切にしているため、Stability AIとの提携や独自ガイドラインの策定など、着実に準備を進めてまいりました。
また、「AIが仕事を奪うのではないか」「著作権を侵害しているのではないか」といった懸念に対しても、社内ポリシー、法務的な面も含め、慎重かつ前向きに取り組んでいます。
リスクを最小化するためのルールや体制を整え、コロプラのポリシーである「クリエイターを大切にする」を基盤に、「AIはあくまでも人の創造力を高めるパートナー」であるというスタンスを明確に共有しています。
エンターテインメント業界は、常に新技術との融合が期待される領域です。これまでにも2Dから3D、オフラインからオンラインへと革新が進んできたように、生成AIもまた大きな転換点になり得ると考えています。
私たちは、近い将来の「新しいゲームの世界」が想像もつかないほどダイナミックに広がる可能性を強く感じており、今後もコロプラならではのタイトルやサービスを通じて、その未来を切り拓き、クリエイターへよりよい環境、そしてユーザーの方々に新しい体験をお届けしてまいります。
◆AIポリシーページは以下からご覧ください。
AIポリシーページ:https://colopl.co.jp/aipolicy/