「そのAI、安全ですか?」
2026年以降、企業に問われること

EU AI Act対応 × SafeAI設計のご提案

Sachiko Matsushita DDS
院内PoC 稼働中
歯科診断支援 × SafeAI設計にて臨床実証中 / 応答制御技術 特許出願済み / EU AI Act・経産省AIガイドラインに対応した設計思想
Background

2026年8月以降
何が変わるのか

  • EU AI Actが高リスクAIに本格適用
  • 違反時の制裁金:最大3,500万ユーロまたは全世界売上の7%
  • 医療・採用・金融・意思決定支援が対象
  • 日本企業もEU取引・グローバル展開があれば対象
  • 日本国内でも経産省・総務省がAIガイドラインを整備中
Risk

企業はこう問われる

  • このAI、誰が判断しているのか
  • AIの根拠は説明できるのか
  • 間違ったとき責任はどこにあるのか
  • 判断の記録は残っているのか
答えられなければ
導入できない 取引できない
法的リスク ブランド毀損
Solution

これから必要になること

  • AI導入ではなく、AIの安全設計
  • Traceability(追跡可能性)の確保
  • Transparency(透明性)の確保
  • Human Oversight(人間の監督)の証明
「AIを使えなくする」のではなく
「安全に使える状態にする」設計が必要
Technology

SafeAI三層アーキテクチャ

L01

入力前処理レイヤー

AIが判断しない状態をつくる入力変換技術

L02

応答制御技術特許出願済み

AIが結論・推奨を出力しないよう制御。人間が必ず判断主体になる構造(AIの判断代行を防ぐ設計)

L03

検証・記録レイヤー

コンプライアンス対応と、後から証明・監査対応できる状態を維持します

Effect

SafeAI設計で実現できること

AIが勝手に判断しない

リスク回避・責任の明確化

判断の責任が明確になる

法的に強い・制裁金リスクを低減

すべて説明できる

EU・国内規制への対応・取引継続

記録が残る

監査対応・証拠として機能