ΕΕ: Απαγόρευση ή οριοθέτηση της τεχνητής νοημοσύνης;
17 Απριλίου 2023Στα τέλη Μαρτίου η Ιταλική Αρχή Προστασίας Προσωπικών Δεδομένων «Garante» απαγόρευσε προσωρινά τη χρήση της εφαρμογής ChatGPT. Η ιταλική ανεξάρτητη αρχή έκρινε ύποπτο το εν λόγω λογισμικό, το οποίο χρησιμοποιεί τεχνητή νοημοσύνη για να δημιουργήσει κείμενα που προσιδιάζουν με αυτά που γράφουν οι… κανονικοί άνθρωποι. Μόνο που τα κείμενα αυτά συντάσσονται αλγοριθμικά. Αυτό που οδήγησε την «Garante» στη συγκεκριμένη απόφαση δεν ήταν όμως η χρήση αλγορίθμων, αλλά ζητήματα προστασίας προσωπικών δεδομένων. Γι αυτό στράφηκε στην εταιρεία που διαχειρίζεται το συγκεκριμένο λογισμικό, την OpenAI, πίσω από την οποία βρίσκεται η Microsoft, ζητώντας να ενημερώνει τους χρήστες της ChatGPT για την «τύχη» των προσωπικών τους δεδομένων. Επιπλέον ζήτησε να απαγορευθεί η χρήση του συγκεκριμένου προγράμματος σε παιδιά κάτω των 13 ετών. Εάν ικανοποιηθούν τα αιτήματα αυτά, τότε το επίμαχο λογισμικό θα μπορεί να είναι και πάλι προσβάσιμο στην Ιταλία. Εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία είναι πρόθυμη να συνεργαστεί με τις ιταλικές αρχές.
Ίσως το 2025 ο κανονισμός για την τεχνητή νοημοσύνη
Παρόμοιες ανησυχίες για το ChatGPT εκφράζουν η Γαλλία και η Ισπανία. Οι επιμέρους ευρωπαϊκές αρχές προστασίας δεδομένων συνέρχονται μια φορά το μήνα στις Βρυξέλλες. Ακόμη δεν υπάρχει ευρωπαϊκός κανονισμός για την τεχνητή νοημοσύνη και τις εφαρμογές της σε λογισμικά και προϊόντα, όπως για παράδειγμα οχήματα, ιατρική τεχνολογία ή τεχνολογία παρακολούθησης. Προ διετίας η Κομισιόν είχε υποβάλει νομοθετική πρόταση, η οποία όμως έκτοτε βρίσκεται σε στάδιο διαβούλευσης στο Ευρωπαϊκό Κοινοβούλιο. Mετά την ολοκλήρωση της διαδικασίας, τα κράτη-μέλη θα κληθούν να αποφασίσουν. Δεν αναμένεται πάντως ο νέος κανονισμός να τεθεί σε ισχύ πριν από το 2025. Σύμφωνα με τον Γερμανό Χριστιανοδημοκράτη ευρωβουλευτή Άξελ Βος, ο οποίος ασχολείται εδώ και χρόνια με θέματα τεχνητής νοημοσύνης και συγκαταλέγεται στους βασικούς εμπνευστές του κανονισμού, μέχρι το 2025 θα μπορούσε η επίμαχη εφαρμογή, καθώς και άλλες, να έχει αναπτυχθεί περαιτέρω, ώστε ο κανονισμός τελικά να μην ανταποκρίνεται στη νέα πραγματικότητα.
Οι κίνδυνοι της τεχνητής νοημοσύνης
Ο σχεδιαζόμενος κανονισμός διακρίνει τα λογισμικά τεχνητής νοημοσύνης σε δύο κατηγορίες: «απολύτως απαράδεκτα» και «ακίνδυνα». Εφαρμογές που εμφανίζουν κινδύνους «μεσαίας και μεγάλης κλίμακας» θα υπόκεινται -προς το παρόν τουλάχιστον- σε ειδικούς ελέγχους τεκμηρίωσης αλγορίθμων, διαφάνειας και ενημέρωσης για την χρήση δεδομένων. Ορισμένες εφαρμογές που σχετίζονται με την αξιολόγηση και πρόβλεψη της ανθρώπινης συμπεριφοράς ή ακόμη λογισμικά αναγνώρισης προσώπων αναμένεται να απαγορευθούν.
Ένα αμφιλεγόμενο ακόμη πεδίο είναι κατά πόσο η τεχνητή νοημοσύνη θα μπορεί να κατανοήσει ή να προσομοιώσει ανθρώπινα συναισθήματα. «Είναι αλήθεια ότι, αφενός για λόγους ανταγωνισμού και αφετέρου επειδή υστερούμε στον τομέα αυτό, θα πρέπει να ασχοληθούμε περισσότερο με την τεχνητή νοημοσύνη με πνεύμα αισιοδοξίας. Αυτό που παρατηρείται σε μια πλειοψηφία στην Ευρωβουλή είναι ότι οι άνθρωποι καθοδηγούνται από φόβους και ανησυχίες, αποκλείοντας νέες δυνατότητες», αναφέρει ο Βος. Ο ίδιος τάσσεται βέβαια υπέρ ενός παράλληλου μηχανισμού εποπτείας, αλλά και της προστασίας των θεμελιωδών δικαιωμάτων.
Οι τεχνολογικές εξελίξεις έχουν πάντα διττή φύση
Η Νατάσα Κράμπτον, διευθύνουσα σύμβουλος της μητρικής εταιρείας του ChatGPT, δηλαδή της Microsoft, έχει δηλώσει σε συνεντεύξεις της ότι ο νέος κανονισμός και οι ελεγκτικοί μηχανισμοί του θα πρέπει να εστιάσουν μόνο «στις εφαρμογές υψηλού κινδύνου». Αντίθετα η επιστημονική δεξαμενή σκέψης Future of Life Institute υποστηρίζει ότι θα πρέπει να τεθούν στο μικροσκόπιο όλες οι πιθανές εφαρμογές, ακόμη κι εκείνες που εμφανίζονται ως «ακίνδυνες». Ακριβώς όμως επειδή μια εφαρμογή μπορεί να χρησιμοποιηθεί για «κακά πράγματα», δεν σημαίνει ότι ολόκληρη η τεχνολογία πίσω από αυτή πρέπει να απαγορευτεί. «Οι άνθρωποι αποτυγχάνουν να αναγνωρίσουν αυτή την αμφισημία των τεχνολογικών εξελίξεων» σημειώνει Άξελ Βος, προτείνοντας μάλιστα ως μια λύση την «εκπαίδευση των αλγόριθμων».
Η Κομισιόν και το Κοινοβούλιο προσπαθούν πάντως να βρουν την ενδεδειγμένη ισορροπία μεταξύ της προστασίας των καταναλωτών και της ελεύθερης ανάπτυξης των επιχειρήσεων και της έρευνας. Άλλωστε και ο Ευρωπαίος Επίτροπις Τιερί Μπρετόν, αρμόδιος για τη βιομηχανική πολιτική, πιστεύει ότι «η τεχνητή νοημοσύνη σίγουρα προσφέρει τεράστιες ευκαιρίες ως κινητήριος δύναμη πίσω από μια ψηφιοποιημένη κοινωνία και οικονομία».Όπως επισημαίνει: «Πρέπει να διασφαλίσουμε ότι η ΕΕ δεν θα εξαρτάται από ξένους ή απλώς μεμονωμένους παρόχους». Τα βιομηχανικά δεδομένα που απαιτούνται για την τεχνητή νοημοσύνη θα πρέπει στο μέλλον να συλλέγονται, να αποθηκεύονται και να υποβάλλονται σε επεξεργασία στην ΕΕ.
Αξίζει πάντως να σημειωθεί ότι το ChatGPT της OpenAI αναπτύχθηκε στις ΗΠΑ για παγκόσμια χρήση. Σύντομα θα βρεθεί αντιμέτωπο με τον ανταγωνισμό από αμερικανικές εταιρείες όπως η Google ή το Twitter, το οποίο λέγεται ότι εργάζεται επίσης πάνω στην ανάπτυξη ενός αντίστοιχου chatbot. Όπως και η Κίνα. Το κινέζικο bot θα ονομάζεται Ernie. Όσο για την Ευρώπη, προς το παρόν εστιάζει στην έρευνα, αλλά όχι στην παραγωγή κάποιου αντίστοιχου δικού της προϊόντος.
Μπερντ Ρίγκερτ
Επιμέλεια: Δήμητρα Κυρανούδη