Applexium Applexium
Services Solutions Portfolio Team Contact

AI Ethics Statement

Declarație privind Principiile Etice și Utilizarea Responsabilă a IA

Version 1.0 • April 2026

Emis de: SRL SCALELAW SOLUTIONS | Brand: Applexium

Director: Mircea Ursu | info@applexium.com | +373 78 76 87 65

Cadru de referință: EU AI Act (Reg. UE 2024/1689) | Ghiduri OCDE privind IA | UNESCO Rec. on AI Ethics

Applexium oferă servicii de AI Act Advisory și AI Governance clienților săi. Acest lucru înseamnă că îi ajutăm pe alții să construiască sisteme de inteligență artificială responsabile, conforme și etice.

Clienții care vin la noi pentru AI governance au dreptul să știe cum gândim noi înșine despre IA. Nu poți consilia pe alții să respecte principii pe care tu nu le-ai definit și nu le aplici. Această declarație nu este un document de PR — este poziția noastră instituțională, asumată, aplicată și revizuită periodic.

Ea stă la baza oricărui proiect care implică inteligența artificială, fie că îl construim, fie că îl audităm.

Section 1

Contextul: EU AI Act și de ce contează

Regulamentul (UE) 2024/1689 — cunoscut sub denumirea de EU AI Act — reprezintă primul cadru legal cuprinzător din lume dedicat reglementării sistemelor de inteligență artificială. Aplicat gradual începând cu 2024 și cu efect deplin din 2026, acesta stabilește:

  • O clasificare a sistemelor AI pe niveluri de risc (inacceptabil, ridicat, limitat, minimal);
  • Obligații clare pentru dezvoltatori, furnizori și operatori de sisteme AI;
  • Cerințe de transparență, documentare și supraveghere umană;

Sancțiuni de până la 35.000.000 EUR sau 7% din cifra de afaceri globală anuală.

Poziția Applexium față de EU AI Act

Applexium tratează EU AI Act ca pe un cadru de calitate — un set de standarde care protejează utilizatorii finali și cresc încrederea în produsele digitale.

Oferim servicii de AI Act Advisory tocmai pentru că credem că reglementarea inteligentă a IA este necesară și benefică. Această declarație este dovada că practicăm ceea ce predicăm.

Section 2

Principiile noastre de IA responsabilă

Toate activitățile Applexium care implică inteligența artificială — fie că dezvoltăm, integrăm sau consiliem — se ghidează după următoarele principii fundamentale:

1. Transparență Utilizatorii trebuie să știe când interacționează cu un sistem AI. Nu construim sisteme AI care se pretind a fi umane fără consimțământul utilizatorului. Deciziile automatizate trebuie să poată fi explicate.
2. Echitate și non-discriminare Sistemele AI pe care le construim sunt testate pentru bias și discriminare. Nu construim și nu consiliem sisteme care tratează diferit persoanele pe baza rasei, genului, originii, religiei sau altor caracteristici protejate.
3. Supraveghere umană Niciun sistem AI cu impact semnificativ asupra drepturilor sau deciziilor persoanelor fizice nu funcționează fără un mecanism de supraveghere și intervenție umană. Automatizarea nu înlocuiește responsabilitatea.
4. Securitate și robustețe Sistemele AI trebuie să funcționeze corect, inclusiv în condiții adverse. Testăm rezistența la atacuri adversariale, date corupte și erori de distribuție.
5. Protecția datelor și a vieții private Datele utilizate pentru antrenarea sau operarea sistemelor AI sunt prelucrate în conformitate cu GDPR și cadrul legal aplicabil. Minimizarea datelor este un principiu de design, nu o opțiune.
6. Responsabilitate Fiecare sistem AI are un responsabil identificat. Știm în orice moment cine este operatorul, furnizorul și persoana de contact pentru orice sistem AI pe care îl livrăm sau îl consultăm.
7. Beneficiu social Nu construim și nu consiliem sisteme AI al căror scop unic sau principal este să dăuneze, să manipuleze sau să exploateze persoane fizice sau grupuri vulnerabile.
8. Durabilitate Luăm în considerare impactul energetic și de mediu al sistemelor AI pe care le recomandăm sau construim. Eficiența computațională este parte din arhitectura responsabilă.
Section 3

Clasificarea riscurilor și abordarea noastră

Applexium aplică taxonomia de risc a EU AI Act în evaluarea oricărui sistem AI, fie că îl construim pentru clienți, fie că îl audităm în cadrul serviciilor de AI Governance:

Clasa de risc Exemple sisteme AI Abordare Applexium
RISC INACCEPTABIL Scoring social, manipulare subliminală, identificare biometrică în spații publice în timp real (uz general) REFUZĂM implicarea. Nu construim, nu consiliem, nu integrăm sisteme din această categorie, indiferent de client sau compensație financiară.
RISC RIDICAT AI în educație, angajare, sănătate, infrastructură critică, justiție Acceptăm cu diligență completă: evaluare de impact (DPIA + AI impact), documentație tehnică exhaustivă, supraveghere umană obligatorie, conformitate EU AI Act garantată contractual.
RISC LIMITAT Chatboți, generatoare de conținut, sisteme de recomandare Acceptăm cu obligații de transparență: utilizatorii sunt informați că interacționează cu IA, conținutul generat este marcat corespunzător.
RISC MINIMAL Filtre spam, jocuri, sisteme de analiză a datelor agregate Acceptăm cu bune practici standard de securitate și protecția datelor.
Section 4

Cum aplicăm aceste principii în serviciile noastre

Când construim produse AI

Pentru orice produs digital care include componente de inteligență artificială, Applexium integrează obligatoriu:

  • Evaluarea clasei de risc AI Act încă din faza de discovery;
  • Documentație tehnică conform Anexei IV a EU AI Act (pentru sisteme de risc ridicat);
  • Fișă de sistem AI (AI System Card) — descriere transparentă a capacităților, limitelor și riscurilor;
  • Mecanism de supraveghere și intervenție umană;
  • Jurnal de audit al deciziilor automatizate (audit log);
  • Testare pentru bias și discriminare înainte de lansare;

Procedură de notificare a incidentelor de securitate AI.

Când oferim AI Act Advisory

Serviciile noastre de consultanță în AI Governance includ:

  • Clasificarea sistemelor AI existente sau planificate pe niveluri de risc EU AI Act;
  • Gap analysis față de cerințele EU AI Act pentru furnizori și operatori;
  • Asistență la redactarea documentației tehnice obligatorii;
  • Evaluarea Impactului asupra Protecției Datelor (DPIA) cu componentă AI;
  • Conformity Assessment pentru sisteme de risc ridicat;
  • Formare și training pentru echipele interne ale clienților;

Suport la înregistrarea în baza de date EU AI (EU AI Database) unde este aplicabil.

Angajamentul nostru de coerență instituțională

Nu consiliem clienții să respecte EU AI Act dacă noi înșine nu aplicăm aceste principii în propriile produse. Prezenta declarație este auditabilă — orice client are dreptul să ne solicite dovezi ale aplicării ei.

Section 5

Produsele noastre AI și aplicarea principiilor

Applexium dezvoltă produse proprii care integrează componente de inteligență artificială. Prezentăm mai jos poziția de conformitate pentru fiecare:

Emmi — AI Voice Agent

Agent vocal AI bilingv (română/rusă) pentru gestionarea apelurilor instituționale. Clasificare preliminară EU AI Act: risc limitat. Utilizatorii sunt informați că interacționează cu un sistem AI. Nu ia decizii autonome cu impact asupra drepturilor persoanelor.

Legalia — platformă de educație juridică

Platformă de cursuri și quiz-uri juridice. Componentele AI (dacă sunt integrate) sunt utilizate exclusiv pentru personalizarea conținutului educațional. Clasificare: risc minimal. Nu generează sfaturi juridice cu caracter obligatoriu.

Precedentia — motor de căutare juridică AI

Motor de căutare AI pentru jurisprudența din Republica Moldova (CSJ, CC, CEDO). Clasificare: risc limitat. Sistemul asistă cercetarea juridică, dar nu substituie raționamentul profesionistului în drept. Rezultatele sunt marcate ca generate automat și necesită validare umană.

Notă de revizuire:

Clasificările de risc de mai sus sunt evaluări preliminare și vor fi revizuite la fiecare actualizare majoră a produselor sau a cadrului legal EU AI Act. În caz de dubiu, Applexium aplică în mod conservator nivelul de risc superior.

Section 6

Practici interzise — linii roșii

Indiferent de context, client, compensație financiară sau presiune comercială, Applexium nu va construi, integra, consilia sau susține sisteme AI care:

  • Utilizează tehnici subliminale sau manipulatorii pentru a influența comportamentul uman fără consimțământ;
  • Exploatează vulnerabilitățile persoanelor din cauza vârstei, dizabilității sau circumstanțelor sociale;
  • Realizează scoring social al persoanelor fizice de către autorități publice sau entități private;
  • Efectuează identificare biometrică în timp real în spații publice în scop de supraveghere generalizată;
  • Iau decizii complet automatizate cu impact juridic semnificativ fără supraveghere umană;
  • Sunt proiectate pentru a dezinforma, manipula sau influența procesele democratice;

Folosesc date cu caracter personal obținute ilegal sau fără consimțământ valabil pentru antrenare.

Aceste linii roșii sunt absolute și nu fac obiectul negocierii comerciale.

Un client sau proiect care impune încălcarea acestor principii va fi refuzat, indiferent de valoarea contractuală.

Section 7

Guvernanța Internă a IA la Applexium

Applexium aplică intern următorul cadru de guvernanță pentru proiectele care implică inteligența artificială:

Orice proiect care include componente AI este evaluat obligatoriu pe dimensiunea de risc EU AI Act înainte de startul dezvoltării;

Echipa de Compliance & Legal Advisory revizuiește clasificarea de risc și documentația tehnică pentru fiecare proiect AI;

Clientul este informat transparent cu privire la clasificarea de risc a sistemului AI livrat și la obligațiile sale ca operator;

Incidentele de securitate sau comportament neașteptat al sistemelor AI sunt documentate și, unde este cazul, raportate conform cadrului legal aplicabil;

Prezenta Declarație este revizuită semestrial sau ori de câte ori intervine o modificare semnificativă a cadrului legal EU AI Act.

Section 8

Cadrul legal și documentele de referință

Prezenta Declarație se întemeiază pe și face referire la:

  • Regulamentul (UE) 2024/1689 — EU AI Act;
  • Regulamentul (UE) 2016/679 — GDPR (prelucrat prin Legea RM nr. 195/2024 din august 2026);
  • Ghidurile OCDE privind inteligența artificială (OECD AI Principles, 2019, revizuite 2024);
  • Recomandarea UNESCO privind etica inteligenței artificiale (2021);
  • Ghidul de etică pentru IA demn de încredere al Grupului de Experți de Nivel Înalt al Comisiei Europene (HLEG AI, 2019);

Standardele ISO/IEC 42001 (Sisteme de management AI) și ISO/IEC 23894 (Managementul riscurilor AI).

Section 9

Contact și sesizări

Pentru orice întrebări, sesizări sau solicitări legate de etica IA și practicile Applexium în domeniul inteligenței artificiale:

Email: info@applexium.com

Telefon: +373 78 76 87 65

Adresă birou: Mihai Viteazul 2a, Chișinău, Moldova

Pagina de contact: https://applexium.com/contacts

Ne angajăm să răspundem oricărei sesizări în termen de 10 zile lucrătoare. Sesizările privind comportamentul neașteptat al sistemelor AI pe care le-am construit sau consiliat sunt tratate cu prioritate.

Versiune și revizuire

Următoarea revizuire planificată: Octombrie 2026 sau la modificări majore ale EU AI Act.

Responsabil: Mircea Ursu, Director — SRL SCALELAW SOLUTIONS

Issued by: SRL SCALELAW SOLUTIONS | Brand: Applexium

Director: Mircea Ursu | info@applexium.com | +373 78 76 87 65

Reference framework: EU AI Act (Reg. UE 2024/1689) | OECD AI Guidelines | UNESCO Rec. on AI Ethics

Applexium provides AI Act Advisory and AI Governance services to its clients. This means we help others build responsible, compliant and ethical artificial intelligence systems.

Clients who come to us for AI governance have the right to know how we ourselves think about AI. You cannot advise others to follow principles that you have not defined and do not apply. This statement is not a PR document — it is our institutional position, assumed, applied and periodically reviewed.

It forms the foundation of every project involving artificial intelligence, whether we build it or audit it.

Section 1

EU AI Act and Why It Matters

Regulamentul (UE) 2024/1689 — known as the EU AI Act — is the world's first comprehensive legal framework dedicated to regulating artificial intelligence systems. Gradually applied starting in 2024 and fully effective from 2026, it establishes:

  • A classification of AI systems by risk levels (unacceptable, high, limited, minimal);
  • Clear obligations for developers, providers and operators of AI systems;
  • Transparency, documentation and human oversight requirements;

Penalties of up to EUR 35,000,000 or 7% of annual global turnover.

Applexium's position on the EU AI Act

Applexium treats the EU AI Act as a quality framework — a set of standards that protects end users and increases trust in digital products.

We offer AI Act Advisory services precisely because we believe that intelligent regulation of AI is necessary and beneficial. This statement is proof that we practice what we preach.

Section 2

Our Responsible AI Principles

All Applexium activities involving artificial intelligence — whether we develop, integrate or advise — are guided by the following fundamental principles:

1. Transparency Users must know when they are interacting with an AI system. We do not build AI systems that pretend to be human without the user's consent. Automated decisions must be explainable.
2. Fairness and Non-Discrimination The AI systems we build are tested for bias and discrimination. We do not build or advise on systems that treat people differently based on race, gender, origin, religion or other protected characteristics.
3. Human Oversight No AI system with significant impact on the rights or decisions of individuals operates without a mechanism for human oversight and intervention. Automation does not replace responsibility.
4. Security and Robustness AI systems must function correctly, including under adverse conditions. We test resilience against adversarial attacks, corrupted data and distribution errors.
5. Data and Privacy Protection Data used for training or operating AI systems is processed in compliance with GDPR and the applicable legal framework. Data minimization is a design principle, not an option.
6. Accountability Every AI system has an identified responsible party. We know at all times who the operator, provider and contact person is for any AI system we deliver or consult on.
7. Social Benefit We do not build or advise on AI systems whose sole or primary purpose is to harm, manipulate or exploit individuals or vulnerable groups.
8. Sustainability We consider the energy and environmental impact of the AI systems we recommend or build. Computational efficiency is part of responsible architecture.
Section 3

Risk Classification and Our Approach

Applexium applies the EU AI Act risk taxonomy in evaluating any AI system, whether we build it for clients or audit it as part of AI Governance services:

Risk Class AI System Examples Applexium's Approach
UNACCEPTABLE RISK Social scoring, subliminal manipulation, real-time biometric identification in public spaces (general use) WE REFUSE involvement. We do not build, advise on or integrate systems in this category, regardless of the client or financial compensation.
HIGH RISK AI in education, employment, healthcare, critical infrastructure, justice We accept with full due diligence: impact assessment (DPIA + AI impact), exhaustive technical documentation, mandatory human oversight, EU AI Act compliance contractually guaranteed.
LIMITED RISK Chatbots, content generators, recommendation systems We accept with transparency obligations: users are informed they are interacting with AI, generated content is appropriately labeled.
MINIMAL RISK Spam filters, games, aggregate data analysis systems We accept with standard security and data protection best practices.
Section 4

How We Apply These Principles in Our Services

When we build AI products

For any digital product that includes artificial intelligence components, Applexium mandatorily integrates:

  • AI Act risk class assessment from the discovery phase;
  • Technical documentation in accordance with Annex IV of the EU AI Act (for high-risk systems);
  • AI System Card — a transparent description of capabilities, limitations and risks;
  • Human oversight and intervention mechanism;
  • Automated decision audit log;
  • Bias and discrimination testing before launch;

AI security incident notification procedure.

When we provide AI Act Advisory

Our AI Governance consultancy services include:

  • Classification of existing or planned AI systems by EU AI Act risk levels;
  • Gap analysis against EU AI Act requirements for providers and operators;
  • Assistance in drafting mandatory technical documentation;
  • Data Protection Impact Assessment (DPIA) with an AI component;
  • Conformity Assessment for high-risk systems;
  • Training and capacity building for clients' internal teams;

Support for registration in the EU AI Database where applicable.

Our institutional coherence commitment

We do not advise clients to comply with the EU AI Act if we ourselves do not apply these principles in our own products. This statement is auditable — any client has the right to request evidence of its application.

Section 5

Our AI Products and Principle Application

Applexium develops its own products that integrate artificial intelligence components. Below we present the compliance position for each:

Emmi — AI Voice Agent

Bilingual AI voice agent (Romanian/Russian) for managing institutional calls. Preliminary EU AI Act classification: limited risk. Users are informed that they are interacting with an AI system. It does not make autonomous decisions with impact on individuals' rights.

Legalia — Legal Education Platform

A platform for legal courses and quizzes. AI components (if integrated) are used exclusively for personalizing educational content. Classification: minimal risk. It does not generate legally binding legal advice.

Precedentia — AI Legal Search Engine

AI search engine for case law from the Republic of Moldova (SCJ, CC, ECHR). Classification: limited risk. The system assists legal research but does not substitute the reasoning of legal professionals. Results are marked as automatically generated and require human validation.

Review note:

The risk classifications above are preliminary assessments and will be reviewed with each major product update or change to the EU AI Act legal framework. In case of doubt, Applexium conservatively applies the higher risk level.

Section 6

Prohibited Practices — Red Lines

Regardless of context, client, financial compensation or commercial pressure, Applexium will not build, integrate, advise on or support AI systems that:

  • Use subliminal or manipulative techniques to influence human behavior without consent;
  • Exploit the vulnerabilities of individuals due to age, disability or social circumstances;
  • Perform social scoring of individuals by public authorities or private entities;
  • Conduct real-time biometric identification in public spaces for the purpose of generalized surveillance;
  • Make fully automated decisions with significant legal impact without human oversight;
  • Are designed to disinform, manipulate or influence democratic processes;

Use personal data obtained illegally or without valid consent for training.

These red lines are absolute and are not subject to commercial negotiation.

A client or project that requires violation of these principles will be refused, regardless of contractual value.

Section 7

Internal AI Governance at Applexium

Applexium internally applies the following governance framework for projects involving artificial intelligence:

Any project that includes AI components is mandatorily assessed on the EU AI Act risk dimension before development begins;

The Compliance & Legal Advisory team reviews the risk classification and technical documentation for each AI project;

The client is transparently informed about the risk classification of the delivered AI system and their obligations as an operator;

Security incidents or unexpected behavior of AI systems are documented and, where applicable, reported in accordance with the applicable legal framework;

This Statement is reviewed semi-annually or whenever a significant change to the EU AI Act legal framework occurs.

Section 8

Legal Framework and Reference Documents

This Statement is based on and refers to:

  • Regulamentul (UE) 2024/1689 — EU AI Act;
  • Regulamentul (UE) 2016/679 — GDPR (transposed via RM Law no. 195/2024 of August 2026);
  • OECD Guidelines on Artificial Intelligence (OECD AI Principles, 2019, revised 2024);
  • UNESCO Recommendation on the Ethics of Artificial Intelligence (2021);
  • Ethics Guidelines for Trustworthy AI by the European Commission High-Level Expert Group (HLEG AI, 2019);

ISO/IEC 42001 (AI Management Systems) and ISO/IEC 23894 (AI Risk Management) standards.

Section 9

Contact and Reports

For any questions, reports or requests related to AI ethics and Applexium's practices in the field of artificial intelligence:

Email: info@applexium.com

Phone: +373 78 76 87 65

Office address: Mihai Viteazul 2a, Chisinau, Moldova

Contact page: https://applexium.com/contacts

We commit to responding to any report within 10 business days. Reports concerning unexpected behavior of AI systems that we have built or advised on are treated with priority.

Version and review

Next planned review: October 2026 or upon major changes to the EU AI Act.

Responsible: Mircea Ursu, Director — SRL SCALELAW SOLUTIONS

© 2026 SRL SCALELAW SOLUTIONS — Applexium. All rights reserved.

Applexium Applexium

© 2026 Applexium. All Rights Reserved.

Terms & Conditions Privacy Policy Cookie Policy AI Ethics Statement Accessibility Statement ESG Statement