Σελίδες

Τρίτη 25 Ιουλίου 2023

Αλγόριθμοι και Κράτος Δικαίου: Κριτικές σκέψεις με βάση την απόφαση ΔΕΕ ‘Ligue des droits humains v. Conseil des Ministres’

 

 

ΠΡΩΤΗ ΑΝΑΡΤΗΣΗ 22-7-2023 11.39

UPD (διρόθωση παροραμάτων) 25-7-2023 

Σπυριδούλα Καρύδα

Πάρεδρος ΣτΕ

LL.M. University of Luxembourg

 

 

Ο ΓΚΠΔ στην Αιτ.Σκ. (20) διακηρύσσει ότι τα δικαστήρια και οι δικαστικές αρχές εμπίπτουν στο πεδίο εφαρμογής του ΓΚΠΔ. Στη συνέχεια, με την  ίδια Αιτ.Σκ. δίδεται η δυνατότητα τα δικαστήρια και οι δικαστικές αρχές, και προκειμένου να διασφαλίζεται η ανεξαρτησία των δικαστικών λειτουργών κατά την άσκηση της δικαστικής εξουσίας και των δικαστικών τους καθηκόντων, να εξαιρούνται από την εποπτική αρμοδιότητα της Αρχής Προστασίας Δεδομένων Προσωπικού Χαρακτήρα (ΑΠΔΠΧ). Ο Έλληνας νομοθέτης έκανε χρήση αυτής της δυνατότητας και σύμφωνα με τις διατάξεις του άρθρου 10 παρ. 5 και του άρθρου  58 παρ. 1 του ν. 4624/2019 ( Α΄137), πράξεις που διενεργούνται από τις δικαστικές και εισαγγελικές αρχές στο πλαίσιο της δικαστικής λειτουργίας και των δικαστικών τους καθηκόντων, για λόγους διασφάλισης της δικαστικής ανεξαρτησίας και της διάκρισης των εξουσιών, εξαιρούνται, κατά ρητή πρόβλεψη των άρθρου 55 του ΓΚΠΔ και του άρθρου 45 της  Αστυνομικής Οδηγίας, μόνο από την εποπτική αρμοδιότητα της Αρχής. Την εφαρμογή του ΓΚΠΔ στα Δικαστήρια και τις Δικαστικές Αρχές επιβεβαίωσε προσφάτως και το ΔΕΕ με την απόφαση C-245/20 X,Z κατά Autoriteit Persoonsgegevens (σκ. 25).

Τον τελευταίο καιρό, γίνονται εκτενείς αναφορές στην ψηφιοποίηση της Ελληνικής Δικαιοσύνης, στην εισαγωγή μεθόδων τεχνητής νοημοσύνης, στην αξιολόγηση δικαστικών λειτουργών με βάση στατιστικές εκτιμήσεις, στην εισαγωγή δικών μέσω τηλεματικής, στη διασύνδεση συστημάτων με άλλες δημόσιες αρχές, στην εισαγωγή του θεσμού του εκπροσώπου τύπου στα Δικαστήρια κλ.π..

Η ΕΕ στην πρόσφατη ανακοίνωση της «Η ψηφιοποίηση της δικαιοσύνης στην Ευρωπαϊκή Ένωση Μια εργαλειοθήκη ευκαιριών» (COM (2020) 540 final) τόνισε, μεταξύ άλλων, ότι η πρόσβαση στη δικαιοσύνη και η διευκόλυνση της συνεργασίας μεταξύ των κρατών μελών είναι ένας εκ των κύριων στόχων του χώρου ελευθερίας, ασφάλειας και δικαιοσύνης της ΕΕ που κατοχυρώνεται στη Συνθήκη για τη λειτουργία της ΕΕ. Το άρθρο 47 του Χάρτη των Θεμελιωδών Δικαιωμάτων της Ευρωπαϊκής Ένωσης (Χάρτης) εξασφαλίζει το δικαίωμα πραγματικής προσφυγής έναντι αμερόληπτου δικαστηρίου. Επίσης, τα αποτελεσματικά συστήματα απονομής δικαιοσύνης είναι απαραίτητα για τη λειτουργία της εσωτερικής αγοράς και αποτελούν προϋπόθεση για την οικονομική ανάπτυξη. Η πρόσβαση στη δικαιοσύνη πρέπει να διατηρηθεί και να συμβαδίζει με τις εξελίξεις, συμπεριλαμβανομένου του ψηφιακού μετασχηματισμού που επηρεάζει όλες τις εκφάνσεις της ζωής μας. Την τελευταία δεκαετία, η Επιτροπή και τα κράτη μέλη αναγνώρισαν την ανάγκη για αποτελεσματικά συστήματα απονομής της δικαιοσύνης και ανέλαβαν ορισμένες πρωτοβουλίες που απέφεραν θετικά αποτελέσματα όσον αφορά την ψηφιοποίηση της δικαιοσύνης. Ωστόσο, ο σχεδιασμός και η εφαρμογή της ψηφιοποίησης της δικαιοσύνης πρέπει να εξασφαλίζουν τον απόλυτο σεβασμό των θεμελιωδών δικαιωμάτων που προβλέπονται στον Χάρτη, όπως το δικαίωμα στην προστασία των δεδομένων προσωπικού χαρακτήρα, το δικαίωμα αμερόληπτου δικαστηρίου και δίκαιης προσφυγής, μεταξύ άλλων για όσους δεν έχουν πρόσβαση σε ψηφιακά εργαλεία ή τις απαραίτητες δεξιότητες για να τα χρησιμοποιήσουν, και λαμβανομένης υπόψη της κατάστασης των ηλικιωμένων και των μειονεκτούντων ατόμων. Συνεπώς, η συγκεκριμένη προσέγγιση θα εξασφαλίζει de facto ότι όλοι στην Ένωση θα μπορούν να αξιοποιούν στο έπακρον τα νέα ή πρόσθετα ψηφιακά εργαλεία στον τομέα της δικαιοσύνης. Η συνεκτίμηση των ζητημάτων ασφάλειας στον σχεδιασμό και την ανάπτυξη ψηφιακών λύσεων στον τομέα της δικαιοσύνης είναι ουσιαστικής σημασίας για την προώθηση της υιοθέτησής τους και την οικοδόμηση της εμπιστοσύνης των πολιτών. Επίσης, με τη βελτίωση της πρόσβασης στη δικαιοσύνη, η ψηφιοποίηση θα συμβάλλει επίσης στην ενίσχυση του κράτους δικαίου στην ΕΕ.

Γίνεται φανερό ότι πολύ σύντομα έννοιες όπως «ψηφιακή δικογραφία», «ψηφιακή ανάκριση» κλ.π. θα είναι στην ημερήσια διάταξη της λειτουργίας όλων των  Δικαστηρίων. Σε όλον όμως αυτόν τον «ψηφιακό μετασχηματισμό» με την πολύτιμη βοήθεια της τεχνολογίας ενυπάρχουν και κίνδυνοι, οι οποίοι επιγραμματικά τονίσθηκαν και στην ανωτέρω ανακοίνωση της Επιτροπής, ιδίως ως προς την προστασία των δεδομένων προσωπικού χαρακτήρα. Η επεξεργασία τεράστιου όγκου ψηφιακών δεδομένων και δη ευαίσθητων απαιτεί, πλην τεχνολογικής θωράκισης μέσω της εισαγωγής εξελιγμένων  τεχνικών ασφαλείας, σαφείς και καθορισμένες νομικές βάσεις για την επεξεργασία των δεδομένων αυτών. Εφίσταται επίσης η προσοχή ότι η Αστυνομική Οδηγία  και ο ΓΚΠΔ εισήχθησαν ακριβώς για να αντιμετωπίσουν τις προκλήσεις της νέας ψηφιακής εποχής. Η ΕΕ όμως απαιτεί όλα τα ΚΜ να παρέχουν ισοδύναμο πλαίσιο προστασίας όσον αφορά την προστασία των δεδομένων προσωπικού χαρακτήρα γιατί διαφορετικά δεν θα μπορέσει να λειτουργήσει ειδικώς στο χώρο της ποινικής δικαιοσύνης η διαβίβαση προσωπικών δεδομένων.

Περαιτέρω προβληματισμό δημιουργεί και η τοποθέτηση περί χορήγησης προσωπικών δεδομένων δικαστικών λειτουργών σε θεσμικούς φορείς για να αξιολογηθεί η απόδοση δικαστικών λειτουργών, ενώ δεν υπάρχει σχετική  νομική βάση, σύμφωνα με το άρθρο 6 ΓΚΠΔ και τον ν.4624/2019, που να επιτρέπει τη χορήγηση αυτών των στοιχείων. Και φυσικά η επίκληση της νομικής βάση του άρθρου 5 του ν. 4624/2019 ή της  περ. ε΄ του άρθρου 6 παρ.1  του ΓΚΠΔ δεν  καλύπτει εξ αυτής της απόψεως, ακόμη και αιτήματα διατυπωμένα από  ΝΠΔΔ. Η επεξεργασία αυτή αφορά διαβίβαση δεδομένων προσωπικού χαρακτήρα για άλλους σκοπούς και απαιτεί την ύπαρξη ξεχωριστής νομικής βάσης σύμφωνα με το άρθρο 6 παρ.4 του ΓΚΠΔ που δεν ανευρίσκεται στο εθνικό ή στο ενωσιακό δίκαιο. Ακόμη όμως και στην αδόκητη περίπτωση που ήταν μια τέτοια διαβίβαση επιτρεπτή απαγορεύεται ρητώς να χρησιμοποιηθούν μέθοδοι τύπου profiling για δικαστικούς λειτουργούς και εργαζόμενους για λόγους που άπτονται της προσωπικής τους αξιολόγησης. Η απαγόρευση αυτή ερείδεται στο άρθρο 22 ΓΚΠΔ και στην Αιτ.Σκ 71 σύμφωνα με το οποίο μόνο ίσως για την πρόσληψη εργαζομένου είναι επιτρεπτό το profiling  και αυτό με πολλές επιφυλάξεις και φυσικά με την τήρηση αυστηρών εγγυήσεων. Στη Γερμανία απαγορεύεται δια νόμου το profiling δημοσίων υπαλλήλων συνολικά και από τις γερμανικές αρχές προστασίας δεδομένων προσωπικού χαρακτήρα πρόσφατα εκφράσθηκαν προβληματισμοί για την καθολική απαγόρευσή του όσον αφορά σε εργαζόμενους.[1] Στη Γαλλία από το 2019[2] έχει ψηφισθεί και εφαρμόζεται νόμος σύμφωνα με τον οποίο απαγορεύεται ρητώς το profiling δικαστών διότι υπάρχει κίνδυνος επηρεασμού της δικαστικής κρίσης και προσβολής της δικαστικής ανεξαρτησίας. Ο νόμος αυτός είχε λάβει υπόψη του και τις πρόσφατες εξελίξεις της ανάπτυξης εργαλείων τεχνητής νοημοσύνης τύπου ChatGPT και τους επερχόμενους κινδύνους.

 

Μεγάλος αριθμός υποθέσεων που εισάγονται στα ελληνικά δικαστήρια, και ας  αναφερθώ μόνον στα  διοικητικά δικαστήρια, απορρίπτεται. Πως θα φαινόταν λοιπόν η πρόταση εισαγωγής αντίστοιχου αλγορίθμου για δικηγόρους ή παραστάτες του ελληνικού δημοσίου που εισάγουν  προφανώς απαράδεκτα ή αβάσιμα ένδικα μέσα. Οι βάσεις δεδομένων έχουν τρομακτικές πια δυνατότητες και τεχνικά είναι εφικτό ( βλ. legal analytics σε χώρες όπως η Αμερική). Με βάση λοιπόν τον αλγόριθμο αυτό οι δικηγόροι ή οι νομικοί εκπρόσωποι του Ελληνικού Δημοσίου  θα κατηγοριοποιούνται σε υψηλού, μεσαίου και χαμηλού κινδύνου με μόνον τις υποθέσεις των τελευταίων να εισάγονται στο ακροατήριο. Οι υπόλοιπες θα απορρίπτονται αποκλειστικά  με βάση τα πορίσματα του αλγόριθμου. Φυσικά και μία τέτοια πρόταση δεν θα ήταν αποδεκτή, οπωσδήποτε όμως η επιρροή της στην επιτάχυνση της απονομής της δικαιοσύνης θα ήταν σημαντική. Ασφαλώς, η εισαγωγή της τεχνητής νοημοσύνης στο ελληνικό δικαστικό σύστημα απαιτεί εξειδικευμένες  νομικές βάσεις, σύμφωνα με τα προβλεπόμενα στο άρθρο 22 ΓΚΠΔ και άρθρο 11 Οδηγίας  (βλ. και άρθρο 54 ν. 4624/2019), επιτελικό σχεδιασμό, και δεν είναι έκθεση ιδεών περί ‘δικαστών ρομπότ’  ούτε και περί ‘δαιμονοποίησης’  των νέων τεχνολογιών.

 

Τα νομικά και ηθικά ζητήματα που εγείρονται από την χρήση αλγορίθμων είναι πολλά και σημαντικά. Η χρήση αλγόριθμου ευρέως υποστηρίζεται ότι ενδέχεται να οδηγήσει σε διακρίσεις λόγω φύλου, φυλής ή χρώματος ή ακόμη και κοινωνικών στερεοτύπων. Η διαφάνεια των διαδικασιών λήψης αποφάσεων που βασίζονται σε τεχνητή νοημοσύνη (AI) και μηχανική μάθηση ( ML)  αποτελεί ουσιαστικό στοιχείο του   δικαιώματος πρόσβασης σε δικαστήριο και στην προστασία των δεδομένων προσωπικού χαρακτήρα, όπως κατοχυρώνεται στον Χάρτη, στον ΓΚΠΔ και στην Αστυνομική Οδηγία. Παράλληλα, ο ΓΚΠΔ στην Αιτ.Σκ 71 υπό το άρθρο 22 του ΓΚΠΔ επανειλημμένως αναφέρεται στον διαφαινόμενο κίνδυνο η αυτοματοποιημένη επεξεργασία και η κατάρτιση προφίλ να οδηγήσουν  σε διακρίσεις σε βάρος προσώπων ή ακόμη και στον κοινωνικό αποκλεισμό τους. Την ίδια λογική απηχεί και η αυξημένη προστασία των ευαίσθητων δεδομένων, σύμφωνα με το άρθρο 9 του ΓΚΠΔ και το άρθρο 22 του ν. 4624/2019.

Ως εκ τούτου, ο συνδυασμός της τεχνητής νοημοσύνης  με το κράτος δικαίου απαιτεί περαιτέρω διερεύνηση του τρόπου με τον οποίο το «μαύρο κουτί» επιδρά στα θεμελιώδη δικαιώματα σε δίκαιη δίκη, την ισότητα των όπλων και την προστασία των  προσωπικών δεδομένων, όπως κατοχυρώνονται στο κεκτημένο της ΕΕ. Αυτό συμβαίνει διότι κάθε τεχνολογική εξέλιξη, ιδίως όσον αφορά τη διαφάνεια των δικαστικών διαδικασιών, πρέπει να περιορίζεται στο απολύτως αναγκαίο, χωρίς να θίγει τα θεμέλια του κράτους δικαίου.

Από μια αυστηρή κοινωνιολογική-τεχνική άποψη, θα μπορούσε υποστηριχθεί ότι  η μεθοδολογία για την ανάπτυξη των συστημάτων ΤΝ ανήκει –λαμβανομένων υπόψη των τεχνικών απαιτήσεων– στην επιστήμη των υπολογιστών, αλλά η νομική αξιολόγηση αυτών των μέσων στη νομική επιστήμη και στη νομολογία των δικαστηρίων.[3] Αυτό ακριβώς είναι το ακανθώδες ζήτημα με την αλγοριθμική απόφαση. Η αλγοριθμική αδιαφάνεια. Παραμένει ασαφές πώς και με βάση ποια δεδομένα λαμβάνει την απόφασή του ένας αλγόριθμος, και η αδιαφάνεια αυτή επιδρά στην προστασία των δεδομένων προσωπικού χαρακτήρα, και όχι μόνο. Συνεπώς, η έλλειψη πρόσβασης στον τρόπο λειτουργίας των εφαρμογών λογισμικού μπορεί να παρεμποδίσει σοβαρά την παροχή αποτελεσματικής δικαστικής προστασίας στα υποκείμενα των δεδομένων. Πολύ πρόσφατα, το ΔΕΕ[4] είχε την ευκαιρία να αντιμετωπίσει ένα τέτοιο ζήτημα και κατέβαλε την πρώτη του προσπάθεια να «ξεκλειδώσει το μαύρο κουτί» με την απόφαση με την οποία αμφισβητήθηκε η συμβατότητα  της οδηγίας PNR με τη νομοθεσία για την προστασία των δεδομένων προσωπικού χαρακτήρα. Από ετυμολογική άποψη, σύμφωνα με το  παράρτημα της Σύστασης  CM/Rec (2021)8 της Επιτροπής των Υπουργών στα κράτη μέλη σχετικά με την προστασία των φυσικών προσώπων έναντι της αυτόματης επεξεργασίας δεδομένων προσωπικού χαρακτήρα στο πλαίσιο της κατάρτισης προφίλ[5]  ο όρος «μηχανική μάθηση» δηλώνει την «επεξεργασία με τη χρήση ειδικών μεθόδων τεχνητής νοημοσύνης, η οποία στηρίζεται σε στατιστικές αναλύσεις προκειμένου να δώσει στους υπολογιστές τη δυνατότητα να “μάθουν”» ενώ ως «τεχνητή νοημοσύνη» ένα  «σύστημα που είτε βασίζεται σε λογισμικό είτε είναι ενσωματωμένο σε συσκευές λογισμικού και το οποίο επιδεικνύει ευφυή συμπεριφορά, μεταξύ άλλων, με τη συλλογή και επεξεργασία δεδομένων, αναλύοντας και ερμηνεύοντας το περιβάλλον του και αναλαμβάνοντας δράση, με κάποιο βαθμό αυτονομίας, για την επίτευξη συγκεκριμένων στόχων».

Το Δικαστήριο έκρινε ότι  οι διασφαλίσεις για την αυτοματοποιημένη επεξεργασία δεδομένων προσωπικού χαρακτήρα απαιτούν οι «αλγόριθμοι» να λειτουργούν με διαφάνεια και ότι το αποτέλεσμα της εφαρμογής τους πρέπει να είναι ανιχνεύσιμο.  Το Δικαστήριο, λαμβάνοντας υπόψη το   State of  the Art  της τεχνολογίας αυτής κατέληξε στο συμπέρασμα ότι η τελευταία δεν μπορεί να συνεπάγεται αποδεκτή μέθοδο επεξεργασίας δεδομένων διότι  ως δεδομένης της αδιαφάνειας που χαρακτηρίζει τον τρόπο με τον οποίο λειτουργεί η τεχνολογία τεχνητής νοημοσύνης, μπορεί να είναι αδύνατον να κατανοηθεί ο λόγος για τον οποίο ένα συγκεκριμένο πρόγραμμα κατέληξε σε θετικό αποτέλεσμα και, ως εκ τούτου, υπό τις συνθήκες αυτές, η χρήση τέτοιων τεχνολογιών ενδέχεται να στερήσει τα υποκείμενα των δεδομένων από το δικαίωμά τους σε αποτελεσματική δικαστική προστασία, το οποίο κατοχυρώνεται στο άρθρο 47 του Χάρτη.

Η απόφαση του Δικαστηρίου για την Οδηγία PNR  υπογραμμίζει το γεγονός ότι η τεχνητή νοημοσύνη  εμπίπτει πράγματι μεταξύ του «rule of code» και του «rule of law». Η τεχνολογία εξελίσσεται ραγδαία και είναι μάλλον δύσκολο να ακολουθηθεί από το νόμο. Υποστηρίχθηκε σε μεγάλο βαθμό ότι η νομοθέτηση της τεχνολογίας δεν είναι ο κατάλληλος τρόπος για να αντιμετωπιστούν οι επερχόμενες προκλήσεις, όμως, όπως ανέφερε ο Lawrence Lessig: «Όταν οι κυβερνήσεις εξαφανιστούν, δεν είναι σαν να λαμβάνει χώρα ο παράδεισος. Όταν οι κυβερνήσεις έχουν φύγει, θα πάρουν τη θέση τους και άλλα συμφέροντα». Το παράδειγμα του Chat GPT είναι αρκετά γλαφυρό, από την άποψη αυτή. Ο ρόλος του δικαστικού σώματος είναι κρίσιμος  και τα πορίσματα του Δικαστηρίου στην «υπόθεση PNR» επισημαίνουν ακριβώς ότι οι δικαστές θα καταβάλουν κάθε δυνατή προσπάθεια για να αποτρέψουν την εμφάνιση αυτών των «άλλων συμφερόντων». Ενδεικτική προς αυτήν την κατεύθυνση είναι και η ευρεία ερμηνεία περί της έννοιας της ‘αυτοματοποιημένης απόφασης’ υπό το άρθρο 22 του ΓΚΠΔ όπως διατυπώθηκε στις προτάσεις του Γενικού Εισαγγελέα του ΔΕΕ στην υπόθεση C-634/21 ‘SCHUFA Holding’.  Ένα χρήσιμο εργαλείο  στον αγώνα αυτό εν προκειμένω πιστεύω ότι  είναι η κριτική θεώρηση των νέων αυτών τεχνολογιών, η διαβάθμιση του κινδύνου από την εφαρμογή τους[6] και η θεμελιώδη υποχρέωση για παροχή αποτελεσματικής προστασίας στους διαδίκους, όπως κατοχυρώνεται στο ευρωπαϊκό κεκτημένο. Διότι στο τέλος, όπως πρώτος παρατήρησε ο Edsger W. Dijkstra,  Το ερώτημα αν οι μηχανές μπορούν να σκέφτονται έχει την ίδια σημασία με το ερώτημα αν τα υποβρύχια μπορούν να κολυμπούν’.

 

Σπυριδούλα Καρύδα

Πάρεδρος ΣτΕ

 

 

 

 

 

 

 



[1] DSK Entschlieίung vom 29. April 2022.

[3]Melissa Heikkilä, ‘How judges, not politicians, could dictate America’s AI rules (ΜΙΤ Technology Review, 17 July 2023) <https://www.technologyreview.com/2023/07/17/1076416/judges-lawsuits-dictate-ai-rules/?truid=&utm_source=the_download&utm_medium= >.

[4] Υπόθεση  C-817/19, Ligue des droits humains v. Conseil des Ministres [2022] ECLI :EU:C:2022:491.

[5] Recommendation CM/Rec (2021)8 of the Committee of Ministers to member States on the protection of individuals with regard to automatic processing of personal data in the context of profiling (Adopted by the Committee of Ministers on 3 November).

 

[6] Όπως είναι γνωστό, από πλευράς ενωσιακού νομοθέτη επιχειρείται  μέσω πρότασης κανονισμού [βλ. Πρόταση Κανονισμού του Ευρωπαϊκού Κοινοβουλίου και του Συμβουλίου για τη θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη ( πράξη για την τεχνητή νοημοσύνη (COM(2021) 206 final] η  θέσπιση εναρμονισμένων κανόνων σχετικά με την τεχνητή νοημοσύνη (πράξη για την τεχνητή νοημοσύνη). Η πρόταση αυτή, αφού έχει επιτευχθεί η γενική προσέγγιση, βρίσκεται στην λεγόμενη διαδικασία του «τριμερούς διαλόγου» και ακολουθεί τη λογική της διαβάθμισης του κινδύνου (Risk-based approach) <https://www.europarl.europa.eu/legislative-train/theme-a-europe-fit-for-the-digital-age/file-regulation-on-artificial-intelligence>.

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου

Θα θέλαμε να σας ενημερώσουμε, αναφορικά με τα σχόλια που δημοσιεύονται ότι:
1) Δε θα δημοσιεύονται δυσφημιστικά και εξυβριστικά σχόλια
2) Δε θα δημοσιεύονται ΑΣΧΕΤΑ σχόλια σε ΑΣΧΕΤΕΣ αναρτήσεις
3) Δε θα δημοσιεύονται επαναλαμβανόμενα σχόλια στην ίδια ανάρτηση
4) Δε θα δημοσιεύονται σχόλια σε Greeklish


5) Σχόλια σε ενυπόγραφα άρθρα θα δημοσιεύονται μόνον εφόσον και αυτά είναι ενυπόγραφα.
6) Σχόλια σε ενυπόγραφο σχόλιο θα δημοσιεύονται μόνον εφόσον και αυτά είναι ενυπόγραφα.

7) ΤΑ ΣΧΟΛΙΑ ΔΗΜΟΣΙΕΥΟΝΤΑΙ ΜΟΝΟ ΣΤΙΣ ΑΝΑΡΤΗΣΕΙΣ ΠΟΥ ΥΠΑΡΧΕΙ ΣΧΕΤΙΚΗ ΕΠΙΣΗΜΑΝΣΗ "ΕΠΙΤΡΕΠΟΝΤΑΙ ΣΧΟΛΙΑ"


Η ΑΝΑΡΤΗΣΗ ΤΩΝ ΣΧΟΛΙΩΝ ΔΕ ΣΗΜΑΙΝΕΙ ΟΤΙ ΥΙΟΘΕΤΟΥΝΤΑΙ ΑΠΌ ΤΗ ΔΙΑΧΕΙΡΙΣΗ