Τα κράτη-μέλη της ΕΕ έδωσαν στις 21 Μάιου την τελική έγκριση στη νομοθεσία για την τεχνητή νοημοσύνη (ΑΙ) στην ΕΕ - μια πρωτοποριακή νομοθεσία παγκοσμίως.
Οι συννομοθέτες της ΕΕ είχαν καταλήξει σε προσωρινή συμφωνία στις 8 Δεκεμβρίου 2023 και το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τη νομοθεσία περί τεχνητής νοημοσύνης στις 13 Μαρτίου με ευρεία πλειοψηφία.
Όπως αναφέρεται στη σημερινή ανακοίνωση του Συμβουλίου της ΕΕ, στόχος της νομοθεσίας που εγκρίθηκε είναι η εναρμόνιση των κανόνων για την τεχνητή νοημοσύνη, καθώς και η προώθηση, ανάπτυξη και υιοθέτηση ασφαλών και αξιόπιστων συστημάτων τεχνητής νοημοσύνης στην ενιαία αγορά της ΕΕ τόσο από ιδιωτικούς όσο και από δημόσιους φορείς. Ταυτόχρονα, σκοπός είναι η διασφάλιση του σεβασμού των θεμελιωδών δικαιωμάτων των πολιτών της ΕΕ και η τόνωση των επενδύσεων και της καινοτομίας στην τεχνητή νοημοσύνη στην Ευρώπη.
Με τον νόμο AI, η Ευρώπη τονίζει τη σημασία της εμπιστοσύνης, της διαφάνειας και της λογοδοσίας όταν ασχολείται με τις νέες τεχνολογίες, ενώ ταυτόχρονα διασφαλίζει ότι αυτή η ταχέως μεταβαλλόμενη τεχνολογία μπορεί να ανθίσει και να τονώσει την ευρωπαϊκή καινοτομία.
Ο νέος νόμος κατηγοριοποιεί διαφορετικούς τύπους τεχνητής νοημοσύνης ανάλογα με τον κίνδυνο. Τα συστήματα τεχνητής νοημοσύνης που παρουσιάζουν περιορισμένο κίνδυνο θα υπόκεινται σε πολύ ελαφρές υποχρεώσεις διαφάνειας, ενώ τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα επιτρέπονται, αλλά θα υπόκεινται σε ένα σύνολο απαιτήσεων και υποχρεώσεων για πρόσβαση στην αγορά της ΕΕ.
Συστήματα τεχνητής νοημοσύνης όπως, για παράδειγμα, η αξιολόγηση πολιτών ή τα συστήματα μαζικής επιτήρησης και η κοινωνική βαθμολογία που εφαρμόζονται στην Κίνα, απαγορεύονται από την ΕΕ, καθώς ο κίνδυνός τους θεωρείται «απαράδεκτος».
Ο νόμος απαγορεύει επίσης τη χρήση τεχνητής νοημοσύνης για προγνωστική αστυνόμευση με βάση το προφίλ και συστήματα που χρησιμοποιούν βιομετρικά δεδομένα για την κατηγοριοποίηση των ατόμων σύμφωνα με συγκεκριμένες κατηγορίες όπως η φυλή, η θρησκεία ή ο σεξουαλικός προσανατολισμός.
Ο νόμος AI αντιμετωπίζει επίσης τη χρήση μοντέλων AI γενικής χρήσης (GPAI).
Τα μοντέλα GPAI που δεν παρουσιάζουν συστημικούς κινδύνους θα υπόκεινται σε ορισμένες περιορισμένες απαιτήσεις, για παράδειγμα όσον αφορά τη διαφάνεια, αλλά εκείνα με συστημικούς κινδύνους θα πρέπει να συμμορφώνονται με αυστηρότερους κανόνες.
Για να εξασφαλιστεί η σωστή επιβολή, συγκροτούνται διάφορα διοικητικά όργανα και ορίζονται ποινικές ρήτρες με πρόστιμα για τις εταιρείες που παραβιάζουν τον νόμο περί τεχνητής νοημοσύνης.
Προέλευση : www.amna.gr