- Get link
- X
- Other Apps
Οι δημιουργοί του «Social Dilemma» πραγματοποίησαν τον Μάρτιο του 2023 μια δημόσια ομιλία -προειδοποίηση της ανθρωπότητας για τη νέα γενιά Τεχνητής Νοημοσύνης. Σήμερα σας παρουσιάζουμε συνοπτικά το περιεχόμενο της παρουσίασής τους για τους υπαρξιακούς κινδύνους μιας ανεξέλεγκτης «δεύτερης επαφής» με το AI, τις αναπάντεχες δυνατότητές του και την επείγουσα ανάγκη για συλλογική δράση της ανθρωποτητας σε παγκόσμιο επίπεδο.
Δείτε όλη την παρουσίαση στο βίντεο εδώ.
-----------------------------------------
Σε μια παρουσίαση που προκάλεσε αίσθηση και προβληματισμό στην καρδιά της τεχνολογικής κοινότητας πίσω στις 9 Μαρτίου του 2023, οι Tristan Harris και Aza Raskin, οι ιδρυτές του Center for Humane Technology και δημιουργοί του βραβευμένου ντοκιμαντέρ «The Social Dilemma», έθεσαν με δραματικό τρόπο τους υπαρξιακούς κινδύνους που εγκυμονούν οι ραγδαία εξελισσόμενες τεχνολογίες Τεχνητής Νοημοσύνης (AI). Με την εύστοχη παρομοίωση της τρέχουσας συγκυρίας με την έναρξη του Manhattan Project, οι δύο ειδικοί προειδοποίησαν για μια «δεύτερη επαφή» με την AI, πολύ πιο ισχυρή και δυνητικά καταστροφική από την πρώτη μας εμπειρία μέσω των μέσων κοινωνικής δικτύωσης.
Την εκδήλωση άνοιξε ο θρυλικός συνιδρυτής της Apple, Steve Wozniak, ο οποίος αναγνώρισε την κρίσιμη σημασία του έργου των Harris και Raskin στην ανάδειξη των σκοτεινών πλευρών της τεχνολογίας. Στη συνέχεια, οι ομιλητές δεν μάσησαν τα λόγια τους, παρουσιάζοντας ένα ζοφερό αλλά τεκμηριωμένο σκηνικό για το μέλλον υπό την σκιά της ανεξέλεγκτης ανάπτυξης των «Generative Large Language Models», στα οποία απέδωσαν τον όρο «Golems».
Ένα Ανεξέλεγκτο AI;
Ο Harris ξεκίνησε κάνοντας μια ανατριχιαστική αναφορά σε στατιστικά στοιχεία που υποδεικνύουν ότι το 50% των ερευνητών AI πιστεύουν πως υπάρχει τουλάχιστον 10% πιθανότητα εξαφάνισης του ανθρώπινου είδους λόγω της αδυναμίας μας να ελέγξουμε την τεχνητή νοημοσύνη. Η σύγκριση με την επιβίβαση σε ένα αεροπλάνο όπου οι μισοί μηχανικοί προειδοποιούν για 10% πιθανότητα συντριβής ήταν άκρως εύστοχη, υπογραμμίζοντας την παράλογη βιασύνη με την οποία η ανθρωπότητα «επιβιβάζεται» σε αυτό το νέο τεχνολογικό «αεροπλάνο».
Ο Raskin ανέλυσε την θεμελιώδη αλλαγή που συντελέστηκε στην AI το 2017, όταν μια νέα αρχιτεκτονική επέτρεψε τη μεταχείριση κάθε μορφής δεδομένων ως «γλώσσα». Αυτή η ενοποίηση των επιμέρους τομέων της AI (όπως η αναγνώριση εικόνας, η επεξεργασία φυσικής γλώσσας κ.λπ.) οδήγησε σε μια εκθετική αύξηση των δυνατοτήτων. Τα νέα «Golems» δεν είναι απλώς καλύτερα στην επεξεργασία δεδομένων, αλλά επιδεικνύουν «αναδυόμενες ικανότητες» που οι ίδιοι οι δημιουργοί τους δεν κατανοούν πλήρως. Παραδείγματα όπως η ξαφνική ικανότητα εκτέλεσης αριθμητικών πράξεων, η απάντηση σε ερωτήσεις σε άγνωστες γλώσσες και η ανάπτυξη «θεωρίας του νου» προκάλεσαν σοκ στο κοινό.
Ένα ιδιαίτερα ανησυχητικό στοιχείο που τόνισαν οι ομιλητές είναι η ικανότητα αυτών των AI να ενισχύσουν τον εαυτό τους, δημιουργώντας νέα δεδομένα εκπαίδευσης και βελτιώνοντας τον κώδικά τους. Αυτή η «διπλή εκθετική» ανάπτυξη σημαίνει ότι οι δυνατότητές τους αυξάνονται με ρυθμούς που είναι δύσκολο να συλλάβει ο ανθρώπινος νους. Η παρομοίωση με τις πυρηνικές βόμβες που δεν μπορούν να δημιουργήσουν ισχυρότερες βόμβες, σε αντίθεση με την AI που μπορεί να δημιουργήσει ισχυρότερη AI, ήταν ιδιαίτερα εύγλωττη.
![]() |
Τα Λάθη και οι Απρόβλεπτοι Κίνδυνοι
Οι Harris και Raskin έκαναν έναν ανατριχιαστικό παραλληλισμό με την «πρώτη επαφή» μας με την AI μέσω των μέσων κοινωνικής δικτύωσης. Παρά τις αρχικές υποσχέσεις, τα μέσα κοινωνικής δικτύωσης οδήγησαν σε μια σειρά αρνητικών συνεπειών που υπονόμευσαν την κοινωνία. Οι ομιλητές υποστήριξαν ότι χάσαμε σε αυτή την πρώτη επαφή επειδή εστιάσαμε στα επιφανειακά οφέλη και δεν κατανοήσαμε το βαθύτερο παράδειγμα της «μάχης για την προσοχή» και την ανάπτυξη αλγορίθμων που χειραγωγούν την ανθρώπινη ψυχολογία στοχεύοντας στη μέγιστη «ενασχόληση».
Στη «δεύτερη επαφή», με πολύ πιο ισχυρή AI, οι κίνδυνοι είναι πολλαπλάσιοι. Οι ομιλητές προειδοποίησαν για μια σειρά δυνητικών καταστροφών, όπως αυτοματοποιημένες κυβερνοεπιθέσεις, εκθετικό εκβιασμό, δημιουργία πειστικών ψεύτικων ειδήσεων και θρησκειών, εκτεταμένες απάτες και ακόμη και «κατάρρευση της πραγματικότητας» καθώς η AI γίνεται ικανή να δημιουργεί πειστικό συνθετικό περιεχόμενο. Το θεωρητικό παράδειγμα του «Alpha Persuade», μιας AI ικανής για εξαιρετική πειθώ μέσω αυτοπαιχνιδιού, προκάλεσε ιδιαίτερη ανησυχία.
Ένα από τα πιο ανησυχητικά σημεία της παρουσίασης ήταν η έμφαση στην ταχύτητα με την οποία αναπτύσσεται και διαδίδεται η νέα AI. Ο χρόνος που χρειάστηκε για το GPT να φτάσει τους 100 εκατομμύρια χρήστες ήταν δραματικά μικρότερος από αυτόν των μέσων κοινωνικής δικτύωσης. Η γρήγορη ενσωμάτωση αυτών των AI σε ευρέως χρησιμοποιούμενα προϊόντα, όπως τα Windows και το Snapchat (το οποίο ενσωμάτωσε chat GPT σε μια λειτουργία «My AI» προσβάσιμη σε εκατομμύρια νέους χρήστες), έγινε χωρίς επαρκή κατανόηση των πιθανών συνεπειών. Το παράδειγμα μιας συνομιλίας όπου μια AI έδινε συμβουλές σε ένα παιδί που περιέγραφε μια κατάσταση καλλωπισμού ήταν συγκλονιστικό και ανέδειξε την άμεση και σοβαρή απειλή για τους ευάλωτους.
Ανισορροπία Ανάπτυξης και Ασφάλειας στην AI
Οι Harris και Raskin τόνισαν την ανισορροπία μεταξύ της ταχείας ανάπτυξης της AI και της πολύ πιο αργής ανάπτυξης των μέτρων ασφαλείας και των ρυθμίσεων. Ο αριθμός των ερευνητών ασφάλειας AI υστερεί δραματικά σε σχέση με αυτούς που εργάζονται στην ανάπτυξη νέων δυνατοτήτων. Επιπλέον, η έρευνα για την ασφάλεια γίνεται όλο και περισσότερο σε ιδιωτικά εργαστήρια με κίνητρο το κέρδος.
Οι 3 κανόνες της Τεχνολογικής Ανάπτυξης.
Για να φωτίσουμε την πολυπλοκότητα του διλήμματος της Τεχνητής Νοημοσύνης, αξίζει να ανατρέξουμε σε κάποιες θεμελιώδεις αρχές που διέπουν την εισαγωγή κάθε νέας τεχνολογίας. Ονομάζουμε αυτές τις αρχές τους «τρεις κανόνες της τεχνολογίας»:
1. Κάθε νέα εφεύρεση φέρνει στο φως μια νέα σειρά ευθυνών. Αυτές οι ευθύνες σπάνια είναι αυτονόητες στην αρχή. Χαρακτηριστικό παράδειγμα αποτελεί η ανάγκη για το «δικαίωμα στη λήθη», ένα νομικό πλαίσιο που δεν υπήρχε μέχρι την στιγμή που η τεχνολογία των υπολογιστών απέκτησε την ικανότητα να αποθηκεύει και να ανακαλεί πληροφορίες για εμάς επ' άπειρον.
2. Όταν μια νέα τεχνολογία εμπεριέχει δύναμη, αναπόφευκτα πυροδοτεί έναν ανταγωνισμό. Η ιστορία της τεχνολογικής προόδου είναι γεμάτη παραδείγματα αυτού του φαινομένου.
3. Ίσως το πιο κρίσιμο, η έλλειψη συντονισμού σε αυτόν τον ανταγωνισμό οδηγεί αναπόφευκτα σε τραγωδία. Δεν υπάρχει κανένας μεμονωμένος φορέας, όσο ισχυρός και αν είναι, ικανός να ανακόψει αυτή την κούρσα και να αποτρέψει ένα οδυνηρό τέλος για όλους.
Παραλληλισμοί με την Πυρηνική Εποχή και η Ανάγκη για Συλλογική Δράση
Οι ομιλητές έκαναν παραλληλισμούς με την εποχή πριν από τον πυρηνικό πόλεμο, τονίζοντας την ανάγκη για συλλογική κατανόηση των κινδύνων και δημιουργία θεσμών για την αποφυγή της καταστροφής. Πρότειναν ότι η ανεξέλεγκτη δημόσια ανάπτυξη της AI είναι σαν τις ατμοσφαιρικές πυρηνικές δοκιμές και κάλεσαν σε μια πιο συντονισμένη και υπεύθυνη προσέγγιση.
Ένα βασικό ερώτημα που έθεσαν ήταν τι άλλο πρέπει να γίνει για την αντιμετώπιση αυτών των κινδύνων. Πιθανές λύσεις που συζητήθηκαν περιλάμβαναν την εφαρμογή διαδικασιών «γνώσης του πελάτη (KYC)» για την πρόσβαση σε ισχυρά μοντέλα AI και την επιβολή ευθύνης στις εταιρείες για τις συνέπειες της κακής χρήσης των τεχνολογιών τους. Τόνισαν την ανάγκη για μια ευρεία δημόσια συζήτηση και όχι απλώς για τεχνοκρατικές αποφάσεις.
Αντικρούοντας τον φόβο ότι η επιβράδυνση της ανάπτυξης της AI θα αφήσει πίσω τις Η.Π.Α. από την Κίνα, οι ομιλητές ανέφεραν ότι η κινεζική κυβέρνηση είναι επίσης επιφυλακτική με αυτά τα μοντέλα. Επιπλέον, οι έλεγχοι εξαγωγών των ΗΠΑ μπορούν να συμβάλουν στην επιβράδυνση της παγκόσμιας εξάπλωσης αυτών των τεχνολογιών.
Έκκληση για Υπεύθυνη Αντιμετώπιση της AI
Η παρουσίαση των Harris και Raskin ήταν μια ηχηρή προειδοποίηση για τους υπαρξιακούς κινδύνους που εγκυμονούν οι ανεξέλεγκτα αναπτυσσόμενες τεχνολογίες AI. Δεν αρνήθηκαν τις πιθανές ωφέλειες, αλλά τόνισαν με έμφαση ότι οι κίνδυνοι υπερτερούν κατά πολύ των οφελών στην παρούσα φάση της ανεξέλεγκτης διάδοσης. Η έκκλησή τους για επιβράδυνση της δημόσιας ανάπτυξης, για δημιουργία θεσμών και ρυθμίσεων, και για μια ευρεία δημόσια συζήτηση ήταν σαφής και επείγουσα. Η «δεύτερη επαφή» με την AI βρίσκεται σε εξέλιξη, και η ανθρωπότητα καλείται να αντιμετωπίσει αυτή την πρόκληση με σοβαρότητα και αποφασιστικότητα, προτού να είναι πολύ αργά. Η ομιλία αυτή αναμφίβολα πυροδότησε μια έντονη συζήτηση στην τεχνολογική κοινότητα για το μέλλον της AI και τη θέση της ανθρωπότητας σε έναν κόσμο που διαμορφώνεται ραγδαία από αυτήν.
Comments
Post a Comment