AiTrust
PlatformaB.O.R.D.E.R.H.A.D.A.I.A.G.R.A.S.H.I.E.L.D.Dla KogoCompliance Hub
Umów Demo
AiTrust

Jedyny kompletny ekosystem w Polsce. Egzekwuje frameworki AiEnclava w czasie rzeczywistym.

Polski Instytut AI

ul. Nowogrodzka 50/54

00-695 Warszawa

Platforma

  • B.O.R.D.E.R.
  • H.A.D.A.
  • I.A.G.R.A.
  • S.H.I.E.L.D.

Wiedza

  • Compliance Hub
  • Dla Kogo
  • Blog Instytutu

Execution (Live)

  • Boundary (B.O.R.D.E.R.)
  • Risk (H.A.D.A.)
  • Documentation (I.A.G.R.A.)
  • Resilience (S.H.I.E.L.D.)

Kontakt

  • biuro@aiinstytut.pl
  • +48 222 95 1214
Umów Demo

© 2026 AiTrust / Polski Instytut AI. Wszelkie prawa zastrzeżone.

Polityka PrywatnościRegulamin
Regulatory Knowledge Base

Compliance Hub

Masz wymóg prawny? My mamy funkcję w kodzie.
Przeglądaj mapowanie regulacji na moduły AiTrust.

EU AI Act

Art 9Risk Management System
B.O.R.D.E.R.

Wymaga ciągłego systemu zarządzania ryzykiem przez cały cykl życia AI.

Art 10Data Governance
I.A.G.R.A.

Zarządzanie danymi treningowymi, walidacyjnymi i testowymi. Wykrywanie biasu.

Art 13Transparency
H.A.D.A.

Użytkownik musi wiedzieć, że rozmawia z AI. Wyjaśnialność decyzji.

Art 14Human Oversight
H.A.D.A.

Systemy muszą być nadzorowane przez człowieka (Human-in-the-loop).

Art 15Accuracy & Cybersecurity
S.H.I.E.L.D.

Odporność na ataki (np. adversarial attacks) i błędy.

NIS 2 Directive

Art 21Cybersecurity Mngmt
S.H.I.E.L.D.

Środki zarządzania ryzykiem w cyberbezpieczeństwie: analiza ryzyka, incydenty.

Art 23Reporting Obligations
S.H.I.E.L.D.

Raportowanie incydentów w ciągu 24h (wczesne ostrzeżenie) i 72h.

GDPR / RODO

Art 22Automated Decision Making
B.O.R.D.E.R.

Prawo do niepodlegania decyzji opartej wyłącznie na zautomatyzowanym przetwarzaniu.

Art 35DPIA
I.A.G.R.A.

Ocena skutków dla ochrony danych (Data Protection Impact Assessment).