Ο Κανονισμός EU AI Act Ισχύει Ήδη. Είστε Έτοιμοι;
Οι περισσότεροι Έλληνες επιχειρηματίες πιστεύουν ότι ο EU AI Act είναι κάτι που θα αντιμετωπίσουν “αργότερα.” Η πραγματικότητα: βασικές διατάξεις ισχύουν ήδη. Οι απαγορευμένες πρακτικές AI τέθηκαν εκτός νόμου τον Φεβρουάριο 2025. Οι κανόνες για τα μοντέλα γενικού σκοπού τέθηκαν σε ισχύ τον Αύγουστο 2025. Και το τελευταίο κύμα υποχρεώσεων συμμόρφωσης έρχεται τον Αύγουστο 2026.
Αν η εταιρεία σας χρησιμοποιεί AI σε οποιαδήποτε μορφή, από chatbots μέχρι εργαλεία αυτοματοποιημένων προσλήψεων και predictive analytics, ο κανονισμός αυτός σας αφορά. Τα πρόστιμα για μη συμμόρφωση φτάνουν τα €35 εκατομμύρια ή το 7% του παγκόσμιου ετήσιου κύκλου εργασιών.
Αυτός ο οδηγός αναλύει τι σημαίνει ο EU AI Act για τις ελληνικές επιχειρήσεις, ποιες προθεσμίες μετράνε και τι πρέπει να κάνετε τώρα.
Τι Είναι ο EU AI Act;
Ο EU AI Act είναι το πρώτο ολοκληρωμένο νομικό πλαίσιο για την τεχνητή νοημοσύνη παγκοσμίως. Υιοθετήθηκε επίσημα τον Αύγουστο 2024 και ισχύει σε όλα τα κράτη μέλη της ΕΕ, συμπεριλαμβανομένης της Ελλάδας. Ρυθμίζει τον τρόπο ανάπτυξης, εφαρμογής και χρήσης συστημάτων AI σε ολόκληρη την Ευρωπαϊκή Ένωση.
Ο κανονισμός ακολουθεί μια προσέγγιση βασισμένη στον κίνδυνο. Δεν αντιμετωπίζονται όλα τα AI συστήματα με τον ίδιο τρόπο. Ο νόμος κατατάσσει τα AI σε τέσσερις κατηγορίες κινδύνου και εφαρμόζει διαφορετικούς κανόνες σε κάθε μία.
Οι 4 Κατηγορίες Κινδύνου: Πού Ανήκει το Δικό Σας AI;
Μη Αποδεκτός Κίνδυνος (Απαγορεύεται)
Αυτές οι πρακτικές AI απαγορεύονται πλήρως από τον Φεβρουάριο 2025. Χωρίς εξαιρέσεις. Περιλαμβάνουν:
- Συστήματα κοινωνικής βαθμολόγησης που κατατάσσουν ανθρώπους βάσει συμπεριφοράς
- Βιομετρική αναγνώριση σε πραγματικό χρόνο σε δημόσιους χώρους
- AI που χειραγωγεί την ανθρώπινη συμπεριφορά
- Συστήματα αναγνώρισης συναισθημάτων σε χώρους εργασίας και σχολεία
Αν η επιχείρησή σας χρησιμοποιεί κάτι από αυτά, βρίσκεται ήδη σε παραβίαση.
Υψηλός Κίνδυνος (Αυστηρές Απαιτήσεις)
Εδώ θα πέσει το μεγαλύτερο βάρος συμμόρφωσης. Τα AI συστήματα υψηλού κινδύνου περιλαμβάνουν:
- AI σε προσλήψεις, αξιολόγηση προσωπικού ή εκπαίδευση
- Πιστωτική βαθμολόγηση και αξιολόγηση ασφαλιστικού κινδύνου
- Στοιχεία ασφάλειας σε κρίσιμες υποδομές (ενέργεια, μεταφορές, ύδρευση)
- AI σε δικαστικά συστήματα και συνοριακό έλεγχο
Τα συστήματα υψηλού κινδύνου πρέπει να πληρούν αυστηρές προδιαγραφές: τεχνική τεκμηρίωση, μηχανισμούς ανθρώπινης εποπτείας, πρότυπα ποιότητας δεδομένων, αξιολογήσεις συμμόρφωσης και εγγραφή σε βάση δεδομένων της ΕΕ. Πλήρης συμμόρφωση απαιτείται μέχρι τον Αύγουστο 2026.
Περιορισμένος Κίνδυνος (Υποχρεώσεις Διαφάνειας)
Αυτά είναι τα AI συστήματα που αλληλεπιδρούν με ανθρώπους, όπως chatbots και generative AI. Η κύρια υποχρέωση εδώ είναι η διαφάνεια. Οι χρήστες πρέπει να ενημερώνονται ότι αλληλεπιδρούν με AI, όχι με άνθρωπο. Το AI-generated περιεχόμενο πρέπει να σημαίνεται ξεκάθαρα.
Ελάχιστος Κίνδυνος (Χωρίς Ειδικές Υποχρεώσεις)
Οι περισσότερες εφαρμογές AI ανήκουν εδώ. Φίλτρα spam, AI-powered αναζήτηση, recommendation engines, βελτιστοποίηση αποθεμάτων. Αυτά τα συστήματα μπορούν να χρησιμοποιηθούν ελεύθερα χωρίς πρόσθετες ρυθμιστικές απαιτήσεις.
Βασικές Προθεσμίες: Το Χρονοδιάγραμμα του EU AI Act
Ο EU AI Act εφαρμόζεται σε φάσεις. Ιδού τι έχει ήδη συμβεί και τι έρχεται:
- Αύγουστος 2024: Ο EU AI Act υιοθετήθηκε επίσημα και τέθηκε σε ισχύ
- Φεβρουάριος 2025: Οι απαγορευμένες πρακτικές AI τέθηκαν εκτός νόμου. Ισχύει ήδη.
- Αύγουστος 2025: Οι κανόνες για μοντέλα AI γενικού σκοπού τέθηκαν σε εφαρμογή.
- Αύγουστος 2026: Πλήρης συμμόρφωση για συστήματα AI υψηλού κινδύνου. Αυτή είναι η κρίσιμη προθεσμία.
- Αύγουστος 2027: Υπόλοιπες διατάξεις, συμπεριλαμβανομένων κανόνων για AI σε ρυθμιζόμενα προϊόντα.
Η προθεσμία του Αυγούστου 2026 είναι η κρίσιμη για τις περισσότερες ελληνικές επιχειρήσεις. Απέχει 6 μήνες.
Τι Σημαίνει Αυτό για τις Ελληνικές Επιχειρήσεις
Η υιοθέτηση AI στην Ελλάδα επιταχύνεται. Ολοένα περισσότερες εταιρείες αναπτύσσουν AI Agents για εξυπηρέτηση πελατών, χρησιμοποιούν predictive models για πρόβλεψη ζήτησης και αυτοματοποιούν εσωτερικές διαδικασίες. Αλλά οι περισσότερες ελληνικές ΜΜΕ δεν έχουν αξιολογήσει αν τα AI use cases τους εμπίπτουν στο πεδίο εφαρμογής του EU AI Act.
1. Η πρόκληση των ΜΜΕ. Η ελληνική οικονομία κυριαρχείται από μικρομεσαίες επιχειρήσεις. Οι περισσότερες δεν διαθέτουν ειδικές ομάδες συμμόρφωσης ή εσωτερική νομική εξειδίκευση στη ρύθμιση AI. Αυτό δημιουργεί πραγματικό κίνδυνο ακούσιας μη συμμόρφωσης.
2. Ψηφιακός μετασχηματισμός μέσω ΕΣΠΑ. Πολλές ελληνικές επιχειρήσεις χρησιμοποιούν επιδοτήσεις ΕΣΠΑ για χρηματοδότηση AI projects. Αν αυτές οι υλοποιήσεις δεν συμμορφώνονται με τον EU AI Act, η επένδυση μπορεί να γίνει ευθύνη αντί για πλεονέκτημα.
3. Δεν υπάρχει ακόμη εθνική αρχή AI. Η Ελλάδα δεν έχει ακόμη ορίσει την αρμόδια εθνική αρχή για την εφαρμογή του AI Act. Αλλά αυτό δεν σημαίνει ότι δεν θα υπάρξει επιβολή. Το Ευρωπαϊκό Γραφείο AI έχει άμεσες εποπτικές αρμοδιότητες.
4. Υποχρεώσεις εφοδιαστικής αλυσίδας. Ακόμη κι αν η εταιρεία σας δεν αναπτύσσει AI, μπορεί να έχετε υποχρεώσεις ως χρήστης. Αν χρησιμοποιείτε εργαλείο AI τρίτου για προσλήψεις ή credit scoring, ο EU AI Act θέτει υποχρεώσεις συμμόρφωσης σε εσάς, όχι μόνο στον πάροχο.
Η Λίστα Ελέγχου 7 Βημάτων για Συμμόρφωση με τον EU AI Act
1. Καταγράψτε τα AI συστήματά σας. Φτιάξτε λίστα με κάθε εργαλείο AI, μοντέλο ή σύστημα αυτοματοποιημένων αποφάσεων που χρησιμοποιεί η εταιρεία σας. Συμπεριλάβετε SaaS εργαλεία τρίτων με AI features.
2. Κατατάξτε κάθε σύστημα κατά επίπεδο κινδύνου. Αντιστοιχίστε κάθε AI σύστημα σε μία από τις τέσσερις κατηγορίες κινδύνου. Αν δεν είστε σίγουροι, υποθέστε υψηλότερο κίνδυνο μέχρι να διαπιστώσετε το αντίθετο.
3. Ελέγξτε για απαγορευμένες πρακτικές. Αξιολογήστε τη χρήση AI σας σε σχέση με τη λίστα απαγορευμένων πρακτικών. Η αναγνώριση συναισθημάτων στον χώρο εργασίας και τα χειραγωγικά AI patterns πρέπει να εξαλειφθούν άμεσα.
4. Αξιολογήστε τα συστήματα υψηλού κινδύνου. Για κάθε AI που ταξινομείται ως υψηλού κινδύνου, τεκμηριώστε: τον σκοπό, τις πηγές δεδομένων εκπαίδευσης, τις μετρικές ακρίβειας, τις διαδικασίες ανθρώπινης εποπτείας και τους κινδύνους μεροληψίας.
5. Εφαρμόστε μέτρα διαφάνειας. Βεβαιωθείτε ότι οι χρήστες γνωρίζουν πότε αλληλεπιδρούν με AI. Σημάνετε το AI-generated περιεχόμενο. Ενημερώστε το website και τα interfaces σας.
6. Ελέγξτε τα συμβόλαια με παρόχους. Αν χρησιμοποιείτε AI εργαλεία τρίτων, ελέγξτε αν ο πάροχος σας παρέχει την τεκμηρίωση και τις αξιολογήσεις συμμόρφωσης που απαιτεί ο κανονισμός.
7. Ορίστε υπεύθυνο. Αναθέστε σε κάποιον εσωτερικά (ή εξωτερικά) την ευθύνη συμμόρφωσης AI. Μπορεί να είναι ο CTO σας, νομικός σύμβουλος ή ένας συνεργάτης consulting που κατανοεί τόσο την τεχνολογία όσο και τον κανονισμό.
Χρειάζεστε βοήθεια; Η Αξιολόγηση IT Ετοιμότητας μας καλύπτει το AI governance ως μία από τις βασικές της διαστάσεις.
Το Κόστος της Αδράνειας
Τα πρόστιμα του EU AI Act είναι σημαντικά:
- Απαγορευμένες πρακτικές AI: Έως €35 εκατ. ή 7% του παγκόσμιου κύκλου εργασιών
- Παραβάσεις συστημάτων υψηλού κινδύνου: Έως €15 εκατ. ή 3% του κύκλου εργασιών
- Ανακριβείς πληροφορίες προς τις αρχές: Έως €7,5 εκατ. ή 1% του κύκλου εργασιών
Πέρα από τα πρόστιμα, η μη συμμόρφωση δημιουργεί κίνδυνο φήμης και μπορεί να σας αποκλείσει από δημόσιους διαγωνισμούς, μια σημαντική πηγή εσόδων για πολλές ελληνικές επιχειρήσεις.
Πώς Μπορεί να Βοηθήσει η Proxima
Στην Proxima, συνεργαζόμαστε με ελληνικές επιχειρήσεις σε AI strategy, υλοποίηση και governance. Δεν φτιάχνουμε απλά AI συστήματα. Τα φτιάχνουμε με τρόπο που είναι συμμορφωμένα, τεκμηριωμένα και έτοιμα για ρυθμιστικό έλεγχο.
Οι υπηρεσίες μας περιλαμβάνουν AI audits, αξιολογήσεις ταξινόμησης κινδύνου και υλοποίηση της τεχνικής τεκμηρίωσης που απαιτεί ο EU AI Act.
Αν δεν είστε σίγουροι πού βρίσκεται η επιχείρησή σας σχετικά με τη συμμόρφωση στον EU AI Act, η ώρα να το μάθετε είναι τώρα. Όχι τον Ιούλιο 2026.
