EU AI Act · Japan AI Act · AI Guidelines v1.2 · ISO/IEC 42001:2023

AI利用ポリシー

最終更新日: 2026年4月14日

本ポリシーは、EU AI Act(Regulation (EU) 2024/1689)、日本の人工知能関連技術の研究開発及び活用の推進に関する法律(令和7年法律第53号/以下「AI推進法」)、総務省・経済産業省「AI事業者ガイドライン第1.2版」(2026年3月)、および ISO/IEC 42001:2023(AIマネジメントシステム国際規格)に基づき、Storyteller AI株式会社(以下「当社」)が提供・運用するすべてのAIシステムに関する方針を定めるものです。

当社は ISO/IEC 42001:2023 準拠の AI ガバナンス体制のもと、「透明性・説明可能性・人間中心主義」を三本柱として AI システムを設計・運用します。本ポリシーはプライバシーポリシーおよび利用規約と一体として適用されます。

1. 本ポリシーの位置づけと適用範囲

本ポリシーは以下の4本柱に基づき策定されています:

  • ① EU AI Act(Regulation (EU) 2024/1689): 2024年8月1日発効。2025年2月に第5条(禁止AI)と第4条(AIリテラシー)が適用開始済み。2026年8月2日に第50条(透明性義務)、Annex III(高リスクAI)、罰則規定が適用開始されます。違反時の制裁金は最大1,500万ユーロまたは全世界年間売上高の3%。
  • ② 日本AI推進法(令和7年法律第53号): 2025年9月1日全面施行。当社は第6条に基づき、AI事業者として基本理念(透明性確保・国際協力・リスク対応)に則った活用と国施策への協力を行います。
  • ③ AI事業者ガイドライン第1.2版(総務省・経済産業省、2026年3月): OECD AI 原則および G7 広島 AI プロセスを反映した10原則(人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーション)への準拠を表明します。
  • ④ ISO/IEC 42001:2023(AIマネジメントシステム国際規格): 当社は AIMS(AI Management System)の国際規格に準拠した組織的ガバナンス体制を整備し、Clause 6.1.4 に基づく AI System Impact Assessment を実施します。当社は本規格に基づく AI ガバナンス支援を顧客企業に提供した実績を有します。

本ポリシーは、当社コーポレートサイト、AIコンシェルジュ、AIスクール、および当社が顧客企業に提供する AI 開発・運用・コンサルティングサービスのすべてに適用されます。

2. 当社が提供・利用するAIシステム

透明性の観点から、当社が自社サービスで利用する主要なAIシステム・基盤モデル・プロバイダーを公表します:

  • 大規模言語モデル(LLM): Anthropic Claude(Opus / Sonnet / Haiku)、Google Gemini、OpenAI GPT シリーズ等(用途により選定)
  • AI Gateway: Google Vertex AI、Vercel AI Gateway を通じたマルチプロバイダー構成(モデル冗長化・コスト最適化)
  • AIエージェント: LangGraph を用いた Planner-Executor 型エージェント(AIコンシェルジュ)
  • 検索拡張生成(RAG): ベクトルデータベースと社内ナレッジベースを組み合わせた情報検索
  • 観測性基盤: LangSmith によるトレース収集、AI セーフティ監視、ハルシネーション検知

上記のシステムはいずれも EU AI Act 上「限定リスクAI」に分類される利用範囲で運用されており、現時点で高リスクAI(Annex III)に該当する用途は行っていません。

3. 透明性の原則(EU AI Act 第50条)

当社は EU AI Act Article 50 に基づき、以下の透明性義務を2026年8月2日の適用開始に先立ち遵守します:

  • AIとの対話の明示(第50条(1)): AIコンシェルジュ等のチャットUIでは「🤖 AIと対話中」バッジを常時表示し、ユーザーが AI と対話していることを最初の対話時点で明確にします。
  • 生成AIコンテンツの機械可読ラベリング(第50条(2)): 当社が生成する画像・音声・動画には、C2PA(Coalition for Content Provenance and Authenticity)規格の電子透かしおよびメタデータを2026年8月2日までに段階的に実装します。
  • ディープフェイク・合成メディアの開示(第50条(4)): 合成メディアを生成する機能を提供する場合、その旨をユーザーに明示し、公益情報を目的としたAI生成テキストについても開示責任を果たします。
  • 感情認識・生体分類の通知(第50条(3)): 現時点で当該システムは提供していません。将来提供する場合は本ポリシーを改訂の上、事前通知します。

4. 禁止AI用途(EU AI Act 第5条)

当社は EU AI Act Article 5 が定める以下の用途を自社サービスで実施せず、顧客向け AI 開発支援においてもこれらを目的とする案件を受託しません:

  • サブリミナル操作・人の脆弱性につけ込む技術による行動操作
  • 公的機関による社会的スコアリング
  • 犯罪予測を目的としたプロファイリング(個人の特徴のみに基づくもの)
  • 顔画像のインターネット・CCTV からの無差別収集による顔認識データベース構築
  • 職場および教育機関での感情認識(安全上・医療上の正当事由がある場合を除く)
  • センシティブ属性(人種・政治的意見・宗教等)による生体分類
  • 公共空間におけるリアルタイム遠隔生体識別(法執行機関の例外を除く)

5. 高リスクAI用途の制限(Annex III / GDPR 第22条)

以下は EU AI Act Annex III で高リスクAIに分類される用途です。当社はこれらの意思決定において、AI出力を唯一の根拠として使用することを禁止し、必ず人間の独立したレビューを要求します:

  • 採用・人事評価・昇進・解雇の判定
  • 与信・信用スコアリング・保険料算定
  • 教育機関での評価・入学判定
  • 公共サービスの給付判定
  • 法執行・司法判断・難民認定
  • 重要インフラの安全性判定

GDPR 第22条に基づき、本人に法的効果または類似の重大な影響を及ぼす完全自動化意思決定は原則として行いません。実施する場合は事前の明示的同意、Human-in-the-Loop、および EU AI Act 第86条に基づく説明請求権を保証します。

6. データガバナンスと学習利用

当社は個人情報保護法第17条(利用目的の特定)、EU GDPR 第5条(データ最小化)、および ISO/IEC 42001:2023 Clause 8 に基づき、以下のデータガバナンスを実施します:

  • 学習データとしての利用方針: 当社は、お客様から取得した個人データを基盤モデル(LLM)の事前学習・ファインチューニング目的で利用しません。将来利用する必要が生じた場合は、事前の明示的同意とオプトアウト手段を提供します。
  • プロンプト入力データの取り扱い: AI コンシェルジュに入力されたプロンプトは、サービス提供・品質改善・安全性監視の目的でのみ保管され、基盤モデルプロバイダーの学習には利用されない契約(Zero Data Retention または同等)を締結しています。
  • 要配慮個人情報: 個人情報保護法第20条第2項に基づき、要配慮個人情報(病歴、犯罪歴、人種等)の取得には本人の事前同意を必須とします。
  • 越境移転(個情法第28条): 海外 AI プロバイダー(Anthropic・Google・OpenAI 等)への個人データ移転は、本人の同意または同等水準の保護措置(標準契約条項/SCC)のもとでのみ実施します。
  • モデルからの削除権: 訓練済みモデルからの特定データ削除は技術的に制限があるため、当社はデータ最小化・匿名化を原則とし、削除請求時は可能な限り速やかに対応します。

7. 人間中心主義と Human-in-the-Loop

当社は AI 事業者ガイドライン第1.2版の「人間中心」原則および ISO/IEC 42001:2023 Clause 8.3(Human Oversight)に基づき、以下のガバナンスを実施します:

  • 契約・法務・医療・採用・与信等の重要な意思決定では、AI出力を参考情報として扱い、最終判断は必ず人間が行います。
  • AI コンシェルジュ等の出力には「人間による確認を推奨」するガイダンスを常時表示します。
  • ユーザーは、AI 出力に対して人間の介入・再評価を要求する権利を有します(GDPR 第22条(3))。
  • 当社は AI の出力を組織的意思決定の唯一の根拠として使用しません。

8. AIリテラシーとユーザー支援(EU AI Act 第4条)

EU AI Act 第4条(2025年2月適用開始済み)に基づき、当社はAIシステムの利用者・提供先に対して以下のリテラシー支援を提供します:

  • AI システムの能力と限界に関するドキュメント・ヘルプの提供
  • プロンプトエンジニアリングのベストプラクティス・ガイド
  • ハルシネーション・バイアス・プライバシーリスクに関する注意喚起
  • 当社 AI スクールを通じた体系的な AI リテラシー教育(希望者向け)

9. ハルシネーション・誤情報リスクの開示

生成 AI は、事実と異なる出力(ハルシネーション)、偏り(バイアス)、または古い情報を返すことがあります。当社は以下を明示します:

  • AI 出力は参考情報であり、事実確認の責任はユーザーにあります。
  • 医療・法務・税務・金融・投資助言の代替として使用しないでください。
  • 重要な意思決定の前に、必ず一次情報および有資格の専門家の確認を行ってください。
  • 当社は AI の出力内容の正確性について、明示または黙示を問わず保証しません。

10. AI Impact Assessment(AIIA)とガバナンス

当社は ISO/IEC 42001:2023 Clause 6.1.4(AI System Impact Assessment)に基づき、新規 AI システムの導入および既存システムの重大な変更に際して AI Impact Assessment を実施します:

  • データ主体・社会への潜在的影響の評価
  • バイアス・公平性・安全性・セキュリティのリスク分析
  • プライバシー影響評価(DPIA)との統合
  • Human Oversight 設計のレビュー
  • リスクレジスタへの記録と定期的な再評価

11. インシデント報告・問い合わせ窓口

AI システムに関する懸念・インシデント・異議申し立ては、以下の窓口までご連絡ください。原則として1ヶ月以内に対応します:

AI Ethics / Data Protection Officer: dpo@storytlr.ai

一般お問い合わせ: contact@storytlr.ai

重大な AI 関連インシデントが発生した場合、日本AI推進法に基づく政府への通知、および GDPR 第33条に基づく72時間以内の監督機関通知を行います。

12. 年次トランスペアレンシーレポート

当社は2026年度より、年次の AI トランスペアレンシーレポートを発行します。レポートには、使用モデル、訓練データの概要、インシデント件数、AI Impact Assessment の実施状況、Human-in-the-Loop 介入の発生件数などを含めます。

13. 本ポリシーの改訂

本ポリシーは、法令の変更、技術の進展、および当社の AI ガバナンス体制の改善に伴い改訂されることがあります。重要な変更は本 Web サイト上で事前通知します。

最新版は常に本ページで公開します。過去の版は要請に応じて提供します。

バージョン 1.0 — 2026年4月14日公開

→ Privacy Policy→ Terms of Service