Ευρωπαϊκό Κοινοβούλιο

Πράξη Τεχνητής Νοημοσύνης της ΕΕ: πρώτος κανονισμός για την τεχνητή νοημοσύνη

Ως μέρος της ψηφιακής στρατηγικής της, η ΕΕ θέλει να ρυθμίσει την τεχνητή νοημοσύνη (AI) για να εξασφαλίσει καλύτερες συνθήκες για την ανάπτυξη και τη χρήση αυτής της καινοτόμου τεχνολογίας. Η τεχνητή νοημοσύνη μπορεί να αποφέρει πολλά οφέλη, όπως καλύτερη υγειονομική περίθαλψη, ασφαλέστερη και καθαρότερη μεταφορά, αποτελεσματικότερη παραγωγή, φθηνότερη και βιώσιμη ενέργεια. 

Τον Απρίλιο του 2021, η Ευρωπαϊκή Επιτροπή πρότεινε το πρώτο ρυθμιστικό πλαίσιο της ΕΕ για την τεχνητή νοημοσύνη. Προτείνει τα συστήματα τεχνητής νοημοσύνης που μπορούν να χρησιμοποιηθούν σε διαφορετικές εφαρμογές να αναλυθούν και να ταξινομηθούν ανάλογα με τον κίνδυνο που ενέχουν για τους χρήστες. Τα διαφορετικά επίπεδα κινδύνου θα σημαίνουν περισσότερη ή λιγότερη ρύθμιση. Μόλις εγκριθούν, αυτοί θα είναι οι πρώτοι κανόνες στον κόσμο για την τεχνητή νοημοσύνη.

Προτεραιότητα του Κοινοβουλίου είναι να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται στην ΕΕ είναι ασφαλή, διαφανή, ανιχνεύσιμα, χωρίς διακρίσεις και φιλικά προς το περιβάλλον. Για την πρόληψη επιβλαβών αποτελεσμάτων, τα συστήματα τεχνητής νοημοσύνης θα πρέπει να επιβλέπονται από ανθρώπους και όχι από αυτοματισμούς.

Το Κοινοβούλιο θέλει επίσης να καθιερώσει έναν τεχνολογικά ουδέτερο, ενιαίο ορισμό για την τεχνητή νοημοσύνη που θα μπορούσε να εφαρμοστεί σε μελλοντικά συστήματα τεχνητής νοημοσύνης.

Πράξη Τεχνητής Νοημοσύνης: διαφορετικοί κανόνες για διαφορετικά επίπεδα κινδύνου

Οι νέοι κανόνες θεσπίζουν υποχρεώσεις για τους παρόχους και τους χρήστες ανάλογα με το επίπεδο κινδύνου από την τεχνητή νοημοσύνη. Ενώ πολλά συστήματα τεχνητής νοημοσύνης ενέχουν ελάχιστο κίνδυνο, πρέπει να αξιολογηθούν.


Απαράδεκτος κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης απαράδεκτου κινδύνου είναι συστήματα που θεωρούνται απειλή για τους ανθρώπους και θα απαγορευθούν. Αυτά περιλαμβάνουν:

• γνωστική συμπεριφορική χειραγώγηση ατόμων ή συγκεκριμένων ευάλωτων ομάδων: για παράδειγμα παιχνίδια που ενεργοποιούνται με φωνή που ενθαρρύνουν επικίνδυνη συμπεριφορά στα παιδιά

• κοινωνική βαθμολογία: ταξινόμηση ατόμων με βάση τη συμπεριφορά, την κοινωνικοοικονομική κατάσταση, τα προσωπικά χαρακτηριστικά

• συστήματα βιομετρικής αναγνώρισης σε πραγματικό χρόνο και εξ αποστάσεως, όπως η αναγνώριση προσώπου

Ενδέχεται να επιτρέπονται ορισμένες εξαιρέσεις: Για παράδειγμα, τα απομακρυσμένα βιομετρικά συστήματα ταυτοποίησης, όπου η ταυτοποίηση πραγματοποιείται μετά από σημαντική καθυστέρηση, θα επιτρέπεται να διώκουν σοβαρά εγκλήματα και μόνο μετά από δικαστική έγκριση.

Υψηλός κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης που επηρεάζουν αρνητικά την ασφάλεια ή τα θεμελιώδη δικαιώματα θα θεωρούνται υψηλού κινδύνου και θα χωρίζονται σε δύο κατηγορίες.

1. Συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται σε προϊόντα που εμπίπτουν στη νομοθεσία της ΕΕ για την ασφάλεια των προϊόντων. Αυτό περιλαμβάνει παιχνίδια, αεροπορία, αυτοκίνητα, ιατρικές συσκευές και ανελκυστήρες.

2. Συστήματα τεχνητής νοημοσύνης που εμπίπτουν σε οκτώ συγκεκριμένους τομείς που θα πρέπει να καταχωρηθούν σε μια βάση δεδομένων της ΕΕ:

• βιομετρική ταυτοποίηση και κατηγοριοποίηση φυσικών προσώπων

• διαχείριση και λειτουργία υποδομών ζωτικής σημασίας

• εκπαίδευση και επαγγελματική κατάρτιση

• απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση

• πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών

• επιβολή του νόμου

• διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων

• βοήθεια στη νομική ερμηνεία και εφαρμογή του νόμου.

Όλα τα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου θα αξιολογούνται πριν διατεθούν στην αγορά και καθ’ όλη τη διάρκεια του κύκλου ζωής τους.

Γενετική τεχνητή νοημοσύνη

Γενετική τεχνητή νοημοσύνη, όπως το ChatGPT, θα πρέπει να συμμορφώνονται με τις προϋποθέσεις διαφάνειας:

  • Αποκαλύπτοντας ότι το περιεχόμενο δημιουργήθηκε από AI
  • Σχεδιασμός του μοντέλου για να αποτρέψει τη δημιουργία παράνομου περιεχομένου
  • Δημοσίευση περιλήψεων δεδομένων που προστατεύονται από πνευματικά δικαιώματα που χρησιμοποιούνται για εκπαίδευση
Περιορισμένος κίνδυνος

Τα συστήματα τεχνητής νοημοσύνης περιορισμένου κινδύνου θα πρέπει να συμμορφώνονται με ελάχιστες απαιτήσεις διαφάνειας που θα επιτρέπουν στους χρήστες να λαμβάνουν τεκμηριωμένες αποφάσεις. Αφού αλληλεπιδράσει με τις εφαρμογές, ο χρήστης μπορεί στη συνέχεια να αποφασίσει αν θέλει να συνεχίσει να το χρησιμοποιεί. Οι χρήστες θα πρέπει να ενημερώνονται όταν αλληλεπιδρούν με την τεχνητή νοημοσύνη. Αυτό περιλαμβάνει συστήματα AI που δημιουργούν ή χειρίζονται περιεχόμενο εικόνας, ήχου ή βίντεο (π.χ. deepfakes).

Επόμενα βήματα

Στις 14 Ιουνίου 2023, οι ευρωβουλευτές υιοθέτησαν τη διαπραγματευτική τους θέση σχετικά με την πράξη της Τεχνητής Νοημοσύνης. Οι συνομιλίες θα ξεκινήσουν τώρα με τις χώρες της ΕΕ στο Συμβούλιο σχετικά με την τελική μορφή του νόμου.

Στόχος είναι να επιτευχθεί συμφωνία μέχρι το τέλος του τρέχοντος έτους.

Περισσότερες πληροφορίες εδώ


Ημερολόγιο

Απρίλιος 2025

MO
TU
WE
TH
FR
SA
SU
31
1
2
3
4
5
6
Events for Απρίλιος

2

Events for Απρίλιος

3

Events for Απρίλιος

5

Events for Απρίλιος

6

7
8
9
10
11
12
13
Events for Απρίλιος

7

Events for Απρίλιος

8

Events for Απρίλιος

11

Events for Απρίλιος

12

No Events
Events for Απρίλιος

13

No Events
14
15
16
17
18
19
20
Events for Απρίλιος

14

Events for Απρίλιος

15

No Events
Events for Απρίλιος

16

No Events
Events for Απρίλιος

17

No Events
Events for Απρίλιος

18

No Events
Events for Απρίλιος

19

No Events
Events for Απρίλιος

20

No Events
21
22
23
24
25
26
27
Events for Απρίλιος

21

No Events
Events for Απρίλιος

22

No Events
Events for Απρίλιος

23

No Events
Events for Απρίλιος

24

No Events
Events for Απρίλιος

25

No Events
Events for Απρίλιος

26

No Events
Events for Απρίλιος

27

No Events
28
29
30
1
2
3
4
Events for Απρίλιος

28

No Events
Events for Απρίλιος

29

No Events
Events for Απρίλιος

30

No Events