Declarație privind Principiile Etice și Utilizarea Responsabilă a IA
Version 1.0 • April 2026
Emis de: SRL SCALELAW SOLUTIONS | Brand: Applexium
Director: Mircea Ursu | info@applexium.com | +373 78 76 87 65
Cadru de referință: EU AI Act (Reg. UE 2024/1689) | Ghiduri OCDE privind IA | UNESCO Rec. on AI Ethics
Applexium oferă servicii de AI Act Advisory și AI Governance clienților săi. Acest lucru înseamnă că îi ajutăm pe alții să construiască sisteme de inteligență artificială responsabile, conforme și etice.
Clienții care vin la noi pentru AI governance au dreptul să știe cum gândim noi înșine despre IA. Nu poți consilia pe alții să respecte principii pe care tu nu le-ai definit și nu le aplici. Această declarație nu este un document de PR — este poziția noastră instituțională, asumată, aplicată și revizuită periodic.
Ea stă la baza oricărui proiect care implică inteligența artificială, fie că îl construim, fie că îl audităm.
Regulamentul (UE) 2024/1689 — cunoscut sub denumirea de EU AI Act — reprezintă primul cadru legal cuprinzător din lume dedicat reglementării sistemelor de inteligență artificială. Aplicat gradual începând cu 2024 și cu efect deplin din 2026, acesta stabilește:
Sancțiuni de până la 35.000.000 EUR sau 7% din cifra de afaceri globală anuală.
Poziția Applexium față de EU AI Act
Applexium tratează EU AI Act ca pe un cadru de calitate — un set de standarde care protejează utilizatorii finali și cresc încrederea în produsele digitale.
Oferim servicii de AI Act Advisory tocmai pentru că credem că reglementarea inteligentă a IA este necesară și benefică. Această declarație este dovada că practicăm ceea ce predicăm.
Toate activitățile Applexium care implică inteligența artificială — fie că dezvoltăm, integrăm sau consiliem — se ghidează după următoarele principii fundamentale:
| 1. Transparență | Utilizatorii trebuie să știe când interacționează cu un sistem AI. Nu construim sisteme AI care se pretind a fi umane fără consimțământul utilizatorului. Deciziile automatizate trebuie să poată fi explicate. |
|---|---|
| 2. Echitate și non-discriminare | Sistemele AI pe care le construim sunt testate pentru bias și discriminare. Nu construim și nu consiliem sisteme care tratează diferit persoanele pe baza rasei, genului, originii, religiei sau altor caracteristici protejate. |
| 3. Supraveghere umană | Niciun sistem AI cu impact semnificativ asupra drepturilor sau deciziilor persoanelor fizice nu funcționează fără un mecanism de supraveghere și intervenție umană. Automatizarea nu înlocuiește responsabilitatea. |
| 4. Securitate și robustețe | Sistemele AI trebuie să funcționeze corect, inclusiv în condiții adverse. Testăm rezistența la atacuri adversariale, date corupte și erori de distribuție. |
| 5. Protecția datelor și a vieții private | Datele utilizate pentru antrenarea sau operarea sistemelor AI sunt prelucrate în conformitate cu GDPR și cadrul legal aplicabil. Minimizarea datelor este un principiu de design, nu o opțiune. |
| 6. Responsabilitate | Fiecare sistem AI are un responsabil identificat. Știm în orice moment cine este operatorul, furnizorul și persoana de contact pentru orice sistem AI pe care îl livrăm sau îl consultăm. |
| 7. Beneficiu social | Nu construim și nu consiliem sisteme AI al căror scop unic sau principal este să dăuneze, să manipuleze sau să exploateze persoane fizice sau grupuri vulnerabile. |
| 8. Durabilitate | Luăm în considerare impactul energetic și de mediu al sistemelor AI pe care le recomandăm sau construim. Eficiența computațională este parte din arhitectura responsabilă. |
Applexium aplică taxonomia de risc a EU AI Act în evaluarea oricărui sistem AI, fie că îl construim pentru clienți, fie că îl audităm în cadrul serviciilor de AI Governance:
| Clasa de risc | Exemple sisteme AI | Abordare Applexium |
|---|---|---|
| RISC INACCEPTABIL | Scoring social, manipulare subliminală, identificare biometrică în spații publice în timp real (uz general) | REFUZĂM implicarea. Nu construim, nu consiliem, nu integrăm sisteme din această categorie, indiferent de client sau compensație financiară. |
| RISC RIDICAT | AI în educație, angajare, sănătate, infrastructură critică, justiție | Acceptăm cu diligență completă: evaluare de impact (DPIA + AI impact), documentație tehnică exhaustivă, supraveghere umană obligatorie, conformitate EU AI Act garantată contractual. |
| RISC LIMITAT | Chatboți, generatoare de conținut, sisteme de recomandare | Acceptăm cu obligații de transparență: utilizatorii sunt informați că interacționează cu IA, conținutul generat este marcat corespunzător. |
| RISC MINIMAL | Filtre spam, jocuri, sisteme de analiză a datelor agregate | Acceptăm cu bune practici standard de securitate și protecția datelor. |
Pentru orice produs digital care include componente de inteligență artificială, Applexium integrează obligatoriu:
Procedură de notificare a incidentelor de securitate AI.
Serviciile noastre de consultanță în AI Governance includ:
Suport la înregistrarea în baza de date EU AI (EU AI Database) unde este aplicabil.
Angajamentul nostru de coerență instituțională
Nu consiliem clienții să respecte EU AI Act dacă noi înșine nu aplicăm aceste principii în propriile produse. Prezenta declarație este auditabilă — orice client are dreptul să ne solicite dovezi ale aplicării ei.
Applexium dezvoltă produse proprii care integrează componente de inteligență artificială. Prezentăm mai jos poziția de conformitate pentru fiecare:
Emmi — AI Voice Agent
Agent vocal AI bilingv (română/rusă) pentru gestionarea apelurilor instituționale. Clasificare preliminară EU AI Act: risc limitat. Utilizatorii sunt informați că interacționează cu un sistem AI. Nu ia decizii autonome cu impact asupra drepturilor persoanelor.
Legalia — platformă de educație juridică
Platformă de cursuri și quiz-uri juridice. Componentele AI (dacă sunt integrate) sunt utilizate exclusiv pentru personalizarea conținutului educațional. Clasificare: risc minimal. Nu generează sfaturi juridice cu caracter obligatoriu.
Precedentia — motor de căutare juridică AI
Motor de căutare AI pentru jurisprudența din Republica Moldova (CSJ, CC, CEDO). Clasificare: risc limitat. Sistemul asistă cercetarea juridică, dar nu substituie raționamentul profesionistului în drept. Rezultatele sunt marcate ca generate automat și necesită validare umană.
Notă de revizuire:
Clasificările de risc de mai sus sunt evaluări preliminare și vor fi revizuite la fiecare actualizare majoră a produselor sau a cadrului legal EU AI Act. În caz de dubiu, Applexium aplică în mod conservator nivelul de risc superior.
Indiferent de context, client, compensație financiară sau presiune comercială, Applexium nu va construi, integra, consilia sau susține sisteme AI care:
Folosesc date cu caracter personal obținute ilegal sau fără consimțământ valabil pentru antrenare.
Aceste linii roșii sunt absolute și nu fac obiectul negocierii comerciale.
Un client sau proiect care impune încălcarea acestor principii va fi refuzat, indiferent de valoarea contractuală.
Applexium aplică intern următorul cadru de guvernanță pentru proiectele care implică inteligența artificială:
Orice proiect care include componente AI este evaluat obligatoriu pe dimensiunea de risc EU AI Act înainte de startul dezvoltării;
Echipa de Compliance & Legal Advisory revizuiește clasificarea de risc și documentația tehnică pentru fiecare proiect AI;
Clientul este informat transparent cu privire la clasificarea de risc a sistemului AI livrat și la obligațiile sale ca operator;
Incidentele de securitate sau comportament neașteptat al sistemelor AI sunt documentate și, unde este cazul, raportate conform cadrului legal aplicabil;
Prezenta Declarație este revizuită semestrial sau ori de câte ori intervine o modificare semnificativă a cadrului legal EU AI Act.
Prezenta Declarație se întemeiază pe și face referire la:
Standardele ISO/IEC 42001 (Sisteme de management AI) și ISO/IEC 23894 (Managementul riscurilor AI).
Pentru orice întrebări, sesizări sau solicitări legate de etica IA și practicile Applexium în domeniul inteligenței artificiale:
Email: info@applexium.com
Telefon: +373 78 76 87 65
Adresă birou: Mihai Viteazul 2a, Chișinău, Moldova
Pagina de contact: https://applexium.com/contacts
Ne angajăm să răspundem oricărei sesizări în termen de 10 zile lucrătoare. Sesizările privind comportamentul neașteptat al sistemelor AI pe care le-am construit sau consiliat sunt tratate cu prioritate.
Versiune și revizuire
Următoarea revizuire planificată: Octombrie 2026 sau la modificări majore ale EU AI Act.
Responsabil: Mircea Ursu, Director — SRL SCALELAW SOLUTIONS
Issued by: SRL SCALELAW SOLUTIONS | Brand: Applexium
Director: Mircea Ursu | info@applexium.com | +373 78 76 87 65
Reference framework: EU AI Act (Reg. UE 2024/1689) | OECD AI Guidelines | UNESCO Rec. on AI Ethics
Applexium provides AI Act Advisory and AI Governance services to its clients. This means we help others build responsible, compliant and ethical artificial intelligence systems.
Clients who come to us for AI governance have the right to know how we ourselves think about AI. You cannot advise others to follow principles that you have not defined and do not apply. This statement is not a PR document — it is our institutional position, assumed, applied and periodically reviewed.
It forms the foundation of every project involving artificial intelligence, whether we build it or audit it.
Regulamentul (UE) 2024/1689 — known as the EU AI Act — is the world's first comprehensive legal framework dedicated to regulating artificial intelligence systems. Gradually applied starting in 2024 and fully effective from 2026, it establishes:
Penalties of up to EUR 35,000,000 or 7% of annual global turnover.
Applexium's position on the EU AI Act
Applexium treats the EU AI Act as a quality framework — a set of standards that protects end users and increases trust in digital products.
We offer AI Act Advisory services precisely because we believe that intelligent regulation of AI is necessary and beneficial. This statement is proof that we practice what we preach.
All Applexium activities involving artificial intelligence — whether we develop, integrate or advise — are guided by the following fundamental principles:
| 1. Transparency | Users must know when they are interacting with an AI system. We do not build AI systems that pretend to be human without the user's consent. Automated decisions must be explainable. |
|---|---|
| 2. Fairness and Non-Discrimination | The AI systems we build are tested for bias and discrimination. We do not build or advise on systems that treat people differently based on race, gender, origin, religion or other protected characteristics. |
| 3. Human Oversight | No AI system with significant impact on the rights or decisions of individuals operates without a mechanism for human oversight and intervention. Automation does not replace responsibility. |
| 4. Security and Robustness | AI systems must function correctly, including under adverse conditions. We test resilience against adversarial attacks, corrupted data and distribution errors. |
| 5. Data and Privacy Protection | Data used for training or operating AI systems is processed in compliance with GDPR and the applicable legal framework. Data minimization is a design principle, not an option. |
| 6. Accountability | Every AI system has an identified responsible party. We know at all times who the operator, provider and contact person is for any AI system we deliver or consult on. |
| 7. Social Benefit | We do not build or advise on AI systems whose sole or primary purpose is to harm, manipulate or exploit individuals or vulnerable groups. |
| 8. Sustainability | We consider the energy and environmental impact of the AI systems we recommend or build. Computational efficiency is part of responsible architecture. |
Applexium applies the EU AI Act risk taxonomy in evaluating any AI system, whether we build it for clients or audit it as part of AI Governance services:
| Risk Class | AI System Examples | Applexium's Approach |
|---|---|---|
| UNACCEPTABLE RISK | Social scoring, subliminal manipulation, real-time biometric identification in public spaces (general use) | WE REFUSE involvement. We do not build, advise on or integrate systems in this category, regardless of the client or financial compensation. |
| HIGH RISK | AI in education, employment, healthcare, critical infrastructure, justice | We accept with full due diligence: impact assessment (DPIA + AI impact), exhaustive technical documentation, mandatory human oversight, EU AI Act compliance contractually guaranteed. |
| LIMITED RISK | Chatbots, content generators, recommendation systems | We accept with transparency obligations: users are informed they are interacting with AI, generated content is appropriately labeled. |
| MINIMAL RISK | Spam filters, games, aggregate data analysis systems | We accept with standard security and data protection best practices. |
For any digital product that includes artificial intelligence components, Applexium mandatorily integrates:
AI security incident notification procedure.
Our AI Governance consultancy services include:
Support for registration in the EU AI Database where applicable.
Our institutional coherence commitment
We do not advise clients to comply with the EU AI Act if we ourselves do not apply these principles in our own products. This statement is auditable — any client has the right to request evidence of its application.
Applexium develops its own products that integrate artificial intelligence components. Below we present the compliance position for each:
Emmi — AI Voice Agent
Bilingual AI voice agent (Romanian/Russian) for managing institutional calls. Preliminary EU AI Act classification: limited risk. Users are informed that they are interacting with an AI system. It does not make autonomous decisions with impact on individuals' rights.
Legalia — Legal Education Platform
A platform for legal courses and quizzes. AI components (if integrated) are used exclusively for personalizing educational content. Classification: minimal risk. It does not generate legally binding legal advice.
Precedentia — AI Legal Search Engine
AI search engine for case law from the Republic of Moldova (SCJ, CC, ECHR). Classification: limited risk. The system assists legal research but does not substitute the reasoning of legal professionals. Results are marked as automatically generated and require human validation.
Review note:
The risk classifications above are preliminary assessments and will be reviewed with each major product update or change to the EU AI Act legal framework. In case of doubt, Applexium conservatively applies the higher risk level.
Regardless of context, client, financial compensation or commercial pressure, Applexium will not build, integrate, advise on or support AI systems that:
Use personal data obtained illegally or without valid consent for training.
These red lines are absolute and are not subject to commercial negotiation.
A client or project that requires violation of these principles will be refused, regardless of contractual value.
Applexium internally applies the following governance framework for projects involving artificial intelligence:
Any project that includes AI components is mandatorily assessed on the EU AI Act risk dimension before development begins;
The Compliance & Legal Advisory team reviews the risk classification and technical documentation for each AI project;
The client is transparently informed about the risk classification of the delivered AI system and their obligations as an operator;
Security incidents or unexpected behavior of AI systems are documented and, where applicable, reported in accordance with the applicable legal framework;
This Statement is reviewed semi-annually or whenever a significant change to the EU AI Act legal framework occurs.
This Statement is based on and refers to:
ISO/IEC 42001 (AI Management Systems) and ISO/IEC 23894 (AI Risk Management) standards.
For any questions, reports or requests related to AI ethics and Applexium's practices in the field of artificial intelligence:
Email: info@applexium.com
Phone: +373 78 76 87 65
Office address: Mihai Viteazul 2a, Chisinau, Moldova
Contact page: https://applexium.com/contacts
We commit to responding to any report within 10 business days. Reports concerning unexpected behavior of AI systems that we have built or advised on are treated with priority.
Version and review
Next planned review: October 2026 or upon major changes to the EU AI Act.
Responsible: Mircea Ursu, Director — SRL SCALELAW SOLUTIONS
© 2026 SRL SCALELAW SOLUTIONS — Applexium. All rights reserved.