Pereiti prie pagrindinio turinio
AETHER

AI Act techninė dokumentacija

Paskutinį kartą atnaujinta: 2026 m. gegužės 6 d.

Šis puslapis apibendrina AETHER atitiktį ES AI Act'o (Reglamentas 2024/1689) reikalavimams, įsigaliojusiems 2024 m. rugpjūčio 1 d., su laipsniškais terminais (Art. 5 prohibicijos taikomos nuo 2025 m. vasario 2 d., GPAI obligacijos nuo 2025 m. rugpjūčio 2 d., didelės rizikos sistemos nuo 2026 m. rugpjūčio 2 d.).

1. AETHER rizikos klasifikacija

AETHER yra ribotos rizikos (Limited Risk) AI sistema pagal AI Act 50 straipsnį. Šis statusas nustatytas remiantis šiais kriterijais:

AI Act kategorijaStatusasPagrindas
Draudžiama (Art. 5)❌ NetaikomaAETHER nenaudoja socialinio vertinimo, biometrinės kategorizacijos, emocijų atpažinimo darbo vietoje, manipuliacinių technikų ar kitų Art. 5 draudžiamų praktikų
Didelės rizikos (Annex III)❌ NetaikomaAETHER nenaudojama Annex III srityse: kritinė infrastruktūra, švietimas, užimtumas, esminės paslaugos, teisėsauga, migracija, teisingumo administravimas. AETHER yra komercinė saugumo atitikties patarimo paslauga, ne sprendimo priėmimo įrankis Annex III srityje.
Ribotos rizikos (Art. 50)✅ TaikomaAETHER tiesiogiai bendrauja su fiziniais asmenimis (chat widget + AI generuojamos audito ataskaitos). Art. 50(1) reikalauja aiškios transparency notice.
Minimalios rizikos❌ NetaikomaPer Art. 50 trigger'ą — bendraujama su žmonėmis

2. Foundation Model — model card

AtributasVertė
Modelio pavadinimasAnthropic Claude (Sonnet 4.5 + Opus 4.7 priklausomai nuo užduoties)
ProviderAnthropic Inc. (San Francisco, CA, JAV) · anthropic.com
Modelio tipasFoundation model (general-purpose AI per AI Act 51 str.) — LLM
API endpointapi.anthropic.com · HTTPS · TLS 1.3
Modelio mokymo duomenų klausimasAETHER duomenys NEnaudojami Anthropic modelių mokymui. Sutartinė garantija per Anthropic Commercial Terms + Zero Data Retention sutartis.
Duomenų retention pas Anthropic30 dienų safety/abuse monitoring (default) → galima sumažinti iki 0 dienų (ZDR) enterprise tier
Tarpvalstybinis perdavimasES → JAV pagal EU-U.S. DPF + SCC pagal BDAR 46 str.
Modelio kortelė (Anthropic)Anthropic model release notes + responsible scaling policy
Multimodal capabilityTekstas + ribotas image input (audito kontekste — tekstas-only)
Sistema prompt'o cache'avimasAnthropic prompt caching (cache_control: ephemeral) — KSRA kontekstas + brand guidelines cache'uoti server-side

3. Naudojimo atvejai

3.1. KSRA audito ataskaitos generavimas

  • Input: Kliento klausimyno atsakymai (struktūruotas JSON) + neprivalomos prikabintos politikos (PDF/DOCX)
  • Output: AI sugeneruotos rekomendacijos, gaps analysis, santrumpa
  • Žmogaus priežiūra: Kvalifikuotas AETHER specialistas peržiūri kiekvieną rekomendaciją prieš siuntimą klientui → approved_by_human=true flag

3.2. Public chat widget (azorasec.lt)

  • Input: Vartotojo klausimas (LT/EN) apie KSRA, kainas, audito procesą
  • Output: AI streaming atsakymas su KSRA kontekstu
  • Žmogaus priežiūra: Sąmoningai be moderation real-time (pokalbis informacinis); klaidos / pažeidimai siunčiami į log + atsakomas operator review per 24h

4. Žmogaus priežiūra (Human Oversight) — AI Act Art. 14 analogija

Nors Art. 14 formaliai taikomas didelės rizikos sistemoms, AETHER taiko jo principus voluntariškai:

  • Auditų ataskaitos: Mandatory human-in-loop. Kiekviena AI generuojama rekomendacija turi approved_by_human=true flag prieš PDF generavimą + audito log įrašą su admin user ID.
  • Chat widget: Real-time output be moderation, BET su aiškiu Art. 50 disclaimer'iu kiekvienoje sesijoje: "AI sistema (Claude). Informaciniai atsakymai — ne teisinė ar kibernetinio saugumo konsultacija."
  • Override mechanizmas: AETHER specialistas gali atmesti, redaguoti ar perrašyti AI rekomendaciją. Audito ataskaita saugo abiejų versijų istoriją (AI raw + human-edited).
  • Stop capability: Sistema gali būti sustabdyta (config flag AI_GENERATION_DISABLED=true) jei aptinkamos sistemingos AI klaidos.

5. Transparency obligations (Art. 50)

5.1. Vartotojo informavimas

Visi AETHER kanalai aiškiai pažymi AI dalyvavimą:

  • Public chat widget: Footer notice po input'u — "AI sistema (Claude)" + "ne teisinė konsultacija"
  • Klientų portalas: Audito ataskaitose AI sugeneruoti blokai pažymėti badge'ais
  • PDF ataskaita: Cover page'e disclaimer "Sugeneruota su AI pagalba, peržiūrėta žmogaus" + Anthropic Claude attribution
  • Email automation: "Sent by AETHER" + AI generuojamos dalys aiškiai atskirtos

5.2. Synthetic content marking (Art. 50(2)+(4))

Synthetic audio / video / text generavimas — netaikoma AETHER (negeneruojame deepfakes, sintetinio video). Tekstas yra informacinis, ne dezinformacinis.

6. Vartotojų teisės

AETHER vartotojai turi šias teises (kombinuoja BDAR + AI Act):

  • Žinoti, kad bendrauja su AI — Art. 50(1) ✅ (notice'as kiekviename kanale)
  • Atsisakyti AI auto-decision'o — BDAR Art. 22 ✅ (žmogaus peržiūra mandatory)
  • Užginčyti AI rekomendaciją — kontaktas appeal@azorasec.lt, re-review per 5 d.d.
  • Reikalauti žmogaus re-review — bet kuriuo metu, jei nesutinkate su AI rekomendacija ataskaitoje
  • Gauti modelio paaiškinimą — kokia logika veda prie išvados (limited interpretability — LLM "black box"-like, bet KSRA sąrašo blokas + pagrindas pateikiamas kiekvienoje rekomendacijoje)
  • Nepateikti duomenų AI tvarkymui — opt-out į manual audito kelią (kaina ta pati, terminas +5 d.d.)

7. Rizikos vertinimas (AI-specific)

RizikaLikelihoodImpactMitigation
AI haliucinacija (faktiniai netikslumai)MediumMediumMandatory human review + KSRA citation requirement (kiekviena rekomendacija nuoroda į konkretų KSRA punktą)
Bias / diskriminacijaLowMediumAnthropic Constitutional AI + RLHF — reikšmingas bias mitigacija; KSRA kontekstas neutralus, ne demografinis
Prompt injection (kliento input → exploit)MediumMediumSistema prompt'as cache'uotas server-side (immutable), user input sanitized, klausimynas struktūruotas (ne free-form)
Data leakage į modelio mokymąLowCriticalAnthropic Zero Data Retention (sutartinė garantija)
Model drift / capabilities pakeitimasMediumLowPinned model version (claude-sonnet-4-5-20250929 ir pan.), regression testing po model upgrade
Vendor lock-in (Anthropic outage)LowHighDegraded mode (manual audito kelias), backup model planuojamas (OpenAI/Google) jei verslo case opens
AI-generated PII leakLowHighServer-side PII redaction prieš API call, output parser PII detect

8. Conformity Assessment (CA)

Ribotos rizikos sistemos neturi formalios CE ženklinimo procedūros per AI Act'ą (skiriasi nuo didelės rizikos sistemų). AETHER laikosi šių self-assessment praktikų:

  • Šis viešas dokumentas (techninė dokumentacija)
  • Annual review per ISO 27001 surveillance audit'o ciklą (žr. ISO 27001 pasirengimas)
  • Eksternal AI ethics review — planuojamas 2026 H2 jei klientai prašys (Anthropic Trust Portal + ESPLab konsultacijos)

9. AI Office (ES) ir nacionalinės institucijos

Pagal AI Act 70 + 77 str., LT atsakingos institucijos:

  • Lietuvos AI priežiūros institucija — paskiriama 2026 (Susisiekimo ministerija + Ekonomikos ir inovacijų ministerija koordinuoja)
  • Valstybinė duomenų apsaugos inspekcija (VDAI) — atsakinga už AI sistemų BDAR aspektus
  • Europos AI Office (ES) — generaliniame DG CNECT, atsakingas už GPAI ir cross-border issues

AETHER bendradarbiaus su priežiūros institucijomis pagal poreikį. Skundus arba užklausas dėl AI funkcionalumo siųsti appeal@azorasec.lt.

10. Versijos istorija

VersijaDataPakeitimas
v1.02026-05-06Pradinė AI Act techninė dokumentacija (compliance push)

11. Susiję dokumentai