Παρασκευή 15 Νοεμβρίου 2024

Η ΕΕ δημοσιεύει το πρώτο σχέδιο ρυθμιστικών κατευθυντήριων γραμμών για τον νόμο AI που καλύπτει τη διαφάνεια, τα πνευματικά δικαιώματα και την αξιολόγηση κινδύνου

Η Ευρωπαϊκή Ένωση κυκλοφόρησε το πρώτο προσχέδιο του Κώδικα Πρακτικής της για μοντέλα τεχνητής νοημοσύνης γενικής χρήσης (GPAI), προσφέροντας έναν σαφέστερο οδικό χάρτη στους τεχνολογικούς γίγαντες για τη διαχείριση των κινδύνων και την αποφυγή κυρώσεων. Παρόλο που αυτό το προσχέδιο δεν έχει ολοκληρωθεί – η τελική έκδοση αναμένεται τον Μάιο του 2025 – δίνει σε εταιρείες όπως η OpenAI, η Google, η Meta, η Anthropic και η Mistral μια προεπισκόπηση του τι πρόκειται να ακολουθήσει.

Ο νόμος της ΕΕ για την τεχνητή νοημοσύνη, ο οποίος τέθηκε επίσημα σε ισχύ την 1η Αυγούστου, έθεσε τα θεμέλια για αυτές τις νέες κατευθυντήριες γραμμές. Ωστόσο, υπήρχαν κενά στη ρύθμιση πιο περίπλοκων συστημάτων τεχνητής νοημοσύνης. Αυτό το προσχέδιο, που δημοσιεύτηκε την Πέμπτη, συμπληρώνει ορισμένα από αυτά τα κενά και καλεί τους ενδιαφερόμενους να σχολιάσουν το πλαίσιο προτού καταστεί εκτελεστό.

Στο επίκεντρο αυτού του σχεδίου βρίσκονται κανόνες σχετικά με τη διαφάνεια, τα πνευματικά δικαιώματα, την αξιολόγηση κινδύνου και τη διακυβέρνηση. Τα μοντέλα που εμπίπτουν σε αυτούς τους κανονισμούς ορίζονται ως εκείνα που έχουν εκπαιδευτεί με υπολογιστική ισχύ που υπερβαίνει τα 10 δισεκατομμύρια FLOP, θέτοντας έναν υψηλό πήχη που αφορά τις σημαντικότερες εταιρείες  στον κόσμο της τεχνητής νοημοσύνης, αλλά θα μπορούσε να επεκταθεί σε περισσότερες καθώς εξελίσσεται η τεχνολογία.

Η διαφάνεια είναι ένα σημαντικό θέμα. Οι προγραμματιστές τεχνητής νοημοσύνης θα πρέπει να αποκαλύπτουν τους ανιχνευτές Ιστού που χρησιμοποιούνται για την εκπαίδευση των μοντέλων τους, μια κίνηση που έχει σχεδιαστεί για να αντιμετωπίσει τις ανησυχίες των δημιουργών σχετικά με τα πνευματικά δικαιώματα. Το προσχέδιο περιγράφει επίσης πρωτόκολλα αξιολόγησης κινδύνου, που στοχεύουν στην πρόληψη ζητημάτων όπως τα εγκλήματα στον κυβερνοχώρο, οι διακρίσεις που προκαλούνται από την τεχνητή νοημοσύνη και — στο εφιαλτικό σενάριο  επιστημονικής φαντασίας— την περίπτωση απώλειας ελέγχου της τεχνητής νοημοσύνης.

Οι εταιρείες θα πρέπει επίσης να υιοθετήσουν ένα Πλαίσιο Ασφάλειας (SSF) για τη διαχείριση αυτών των κινδύνων. Αυτό περιλαμβάνει τον μετριασμό των στρατηγικών κινδύνων και την ενημέρωσή τους σύμφωνα με τις εξελισσόμενες απειλές. Από τεχνικής πλευράς, οι κατασκευαστές τεχνητής νοημοσύνης πρέπει να προστατεύουν τα μοντέλα τους, να εφαρμόζουν μηχανισμούς ασφαλείας και να επανεκτιμούν συνεχώς αυτά τα μέτρα.

Οι κανόνες διακυβέρνησης πιέζουν για εσωτερική λογοδοσία, απαιτώντας από τις εταιρείες να διεξάγουν τακτικές αξιολογήσεις κινδύνου και ακόμη και να προσκαλούν εξωτερικούς εμπειρογνώμονες για επίβλεψη.

Φυσικά, το διακύβευμα είναι μεγάλο. Η παραβίαση του νόμου περί τεχνητής νοημοσύνης θα μπορούσε να σημαίνει αυστηρές κυρώσεις: πρόστιμα έως 35 εκατομμύρια ευρώ ή επτά τοις εκατό των παγκόσμιων ετήσιων εσόδων μιας εταιρείας, όποιο από τα δύο είναι μεγαλύτερο. Το ιστορικό της ΕΕ όσον αφορά την επιβολή υψηλών προστίμων για τεχνολογικές παραβιάσεις υποδηλώνει ότι δεν πρόκειται για “κούφιες” απειλές.

Τα σχόλια από τις εταιρείες του κλάδου θα συλλέγονται στην πλατφόρμα Futurium μέχρι τις 28 Νοεμβρίου, δίνοντάς τους την ευκαιρία να επηρεάσουν τις τελικές οδηγίες. Το ρολόι χτυπά, αλλά υπάρχει ακόμα χρόνος για εισαγωγή πριν κλειδωθούν οι κανόνες και ξεκινήσει η επιβολή τους. Με τη δυνατότητα για μεγάλες αλλαγές στον τρόπο διακυβέρνησης της τεχνητής νοημοσύνης, όλα τα βλέμματα θα είναι στραμμένα στην εξέλιξη αυτών των κατευθυντήριων γραμμών τους επόμενους μήνες.

Ν.Β.

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ 

Κομισιόν: Τα πρώτα δείγματα γραφής για τα δεδομένα ασφαλείας στην τεχνητή νοημοσύνη

Η τεχνητή νοημοσύνη «τροφή» για τα εγκλήματα στο διαδίκτυο

 

ΣΧΕΤΙΚΑ

eXclusive

eTop

ΡΟΗ ΕΙΔΗΣΕΩΝ