ΚΟΙΝΩΝΙΚΕΣ ΟΙΚΟΝΟΜΙΚΕΣ ΕΠΙΣΤΗΜΕΣ, ΣΥΝΘΕΣΗ & ΣΧΕΔΙΟ ΙΔΕΩΝ

ΔΕΝ ΥΠΑΡΧΕΙ ΤΕΧΝΗΤΗ ΝΟΗΜΟΣΥΝΗ (του Jaron Lanier)

Artificial Intelligence AI Machine Learning - Σόλων ΜΚΟ
image_pdfimage_print

Artificial Intelligence AI Machine Learning - Σόλων ΜΚΟΩς επιστήμονας υπολογιστών, δεν μου αρέσει ο όρος «AI» (Artificial Inteligence = Τεχνητή νοημοσύνη) Στην πραγματικότητα, νομίζω ότι είναι παραπλανητικός—ίσως και λίγο επικίνδυνος. Όλοι χρησιμοποιούν ήδη τον όρο και μπορεί να φαίνεται λίγο αργά να διαφωνούμε γι’ αυτόν. Όμως βρισκόμαστε στην αρχή μιας νέας τεχνολογικής εποχής — και ο ευκολότερος τρόπος για να κακο-διαχειριζόμαστε μια τεχνολογία είναι να την παρεξηγούμε.

Ο όρος « τεχνητή νοημοσύνη » έχει μακρά ιστορία – επινοήθηκε τη δεκαετία του 1950, στις πρώτες μέρες των υπολογιστών. Πιο πρόσφατα, επιστήμονες υπολογιστών μεγάλωσαν με ταινίες όπως το “The Terminator” και ” The Matrix ” και με χαρακτήρες όπως ο Commander Data, από το “Star Trek: The Next Generation”. Αυτά τα πολιτιστικά θεμέλια έχουν γίνει μια σχεδόν θρησκευτική μυθολογία στον τεχνολογικό πολιτισμό. Είναι φυσικό οι επιστήμονες υπολογιστών να λαχταρούν να δημιουργήσουν AI και να πραγματοποιήσουν ένα μακροχρόνιο όνειρο.

Αυτό που είναι εντυπωσιακό, ωστόσο, είναι ότι πολλοί από τους ανθρώπους που επιδιώκουν το όνειρο της τεχνητής νοημοσύνης ανησυχούν επίσης ότι μπορεί να σημαίνει καταστροφή για την ανθρωπότητα. Λέγεται ευρέως, ακόμη και από επιστήμονες που βρίσκονται στο επίκεντρο των σημερινών προσπαθειών, ότι αυτό που κάνουν οι ερευνητές της τεχνητής νοημοσύνης θα μπορούσε να οδηγήσει στην εξόντωση του είδους μας, ή τουλάχιστον σε μεγάλη ζημιά για την ανθρωπότητα, και σύντομα. Σε μια πρόσφατη δημοσκόπηση, οι μισοί από τους επιστήμονες της τεχνητής νοημοσύνης συμφώνησαν ότι υπήρχε τουλάχιστον δέκα τοις εκατό πιθανότητα να καταστραφεί η ανθρώπινη φυλή από την τεχνητή νοημοσύνη. Ακόμη και ο συνάδελφος και φίλος μου Sam Altman, που διευθύνει το OpenAI, έχει κάνει παρόμοια σχόλια. Μπείτε σε οποιαδήποτε καφετέρα της Silicon Valley και μπορείτε να ακούσετε την ίδια συζήτηση να ξετυλίγεται: ένα άτομο λέει ότι ο νέος κώδικας είναι απλώς κώδικας και ότι οι άνθρωποι είναι υπεύθυνοι, ενώ ένας άλλος υποστηρίζει ότι όποιος έχει αυτή τη γνώμη απλά δεν καταλαβαίνει πόσο ριζική είναι η νέος τεχνολογία. Τα επιχειρήματα δεν είναι απολύτως λογικά: όταν ζητάω από τους πιο φοβισμένους φίλους μου επιστήμονες να εξηγήσουν πώς μπορεί να συμβεί μια Αποκάλυψη μέσω της τεχνητής νοημοσύνης, συχνά  παραλύουν όπως  κάποιος που προσπαθεί να συλλάβει το άπειρο. Λένε πράγματα όπως «Η επιταχυνόμενη πρόοδος θα μας περάσει και δεν θα μπορούμε να συλλάβουμε τι συμβαίνει».

Δεν συμφωνώ με αυτόν τον τρόπο ομιλίας. Πολλοί από τους φίλους και τους συναδέλφους μου εντυπωσιάζονται βαθιά από τις εμπειρίες τους με τα πιο πρόσφατα μεγάλα μοντέλα, όπως το GPT-4 , και πρακτικά ξαγρυπνούν για να περιμένουν την εμφάνιση μιας βαθύτερης νοημοσύνης. Η θέση μου δεν είναι ότι κάνουν λάθος, αλλά ότι δεν μπορούμε να είμαστε σίγουροι. διατηρούμε την επιλογή  του να ταξινομήσουμε το λογισμικό με διαφορετικούς τρόπους.

Η πιο ρεαλιστική θέση είναι να θεωρούμε την τεχνητή νοημοσύνη ως εργαλείο και όχι ως πλάσμα. Η στάση μου δεν εξαλείφει την πιθανότητα κινδύνου: όπως και να το σκεφτούμε, μπορούμε ακόμα να σχεδιάσουμε και να λειτουργήσουμε άσχημα τη νέα μας τεχνολογία, με τρόπους που μπορεί να μας βλάψουν ή ακόμα και να μας οδηγήσουν στην εξαφάνιση. Η μυθοποίηση της τεχνολογίας κάνει μόνο πιο πιθανό να αποτύχουμε να τη λειτουργήσουμε σωστά—και αυτού του είδους η σκέψη περιορίζει τη φαντασία μας, συνδέοντάς τη με τα όνειρα του χθες. Μπορούμε να εργαστούμε καλύτερα με την υπόθεση ότι δεν υπάρχει τέτοιο πράγμα όπως AI Όσο πιο γρήγορα το καταλάβουμε αυτό, τόσο πιο γρήγορα θα αρχίσουμε να διαχειριζόμαστε έξυπνα τη νέα μας τεχνολογία.

Αν η νέα τεχνολογία δεν είναι αληθινή τεχνητή νοημοσύνη, τότε τι είναι; Κατά την άποψή μου, ο πιο ακριβής τρόπος για να κατανοήσουμε αυτό που χτίζουμε σήμερα είναι ως μια καινοτόμος μορφή κοινωνικής συνεργασίας.

Ένα πρόγραμμα όπως το GPT-4 του OpenAI, το οποίο μπορεί να γράψει προτάσεις κατά παραγγελία, είναι κάτι σαν μια έκδοση της Wikipedia που περιλαμβάνει πολύ περισσότερα δεδομένα, πολτοποιημένα μαζί χρησιμοποιώντας στατιστικά. Τα προγράμματα που δημιουργούν εικόνες κατά παραγγελία είναι κάτι σαν έκδοση διαδικτυακής αναζήτησης εικόνων, αλλά με σύστημα συνδυασμού των εικόνων. Και στις δύο περιπτώσεις, είναι άνθρωποι που έγραψαν το κείμενο και έδωσαν τις εικόνες. Τα νέα προγράμματα συνδυάζουν τη δουλειά που γίνεται από ανθρώπινο μυαλό. Αυτό που είναι καινοτόμο είναι ότι η διαδικασία mashup (ανάμιξη-συνδυασμός) έχει γίνει καθοδηγούμενη και περιορισμένη, έτσι ώστε τα αποτελέσματα να είναι χρησιμοποιήσιμα και συχνά εντυπωσιακά. Αυτό είναι ένα σημαντικό επίτευγμα και αξίζει να το γιορτάσουμε – αλλά μπορεί να θεωρηθεί ότι φωτίζει προυπάρχουσες κρυμμένες συμφωνίες μεταξύ των ανθρώπινων δημιουργιών, παρά ως εφεύρεση μιας νέας νόησης.

 

Από την δική μου πλευρά, η άποψή μου κολακεύει την τεχνολογία. Τελικά, τι είναι πολιτισμός εκτός από κοινωνική συνεργασία; Το να βλέπουμε την τεχνητή νοημοσύνη ως τρόπο συνεργασίας, αντί ως τεχνολογία για τη δημιουργία ανεξάρτητων, ευφυών όντων, μπορεί να την κάνει λιγότερο μυστηριώδη—λιγότερο σαν το hal 9000 (Οδύσσεια του Διαστήματος) ή τον Commander Data (Star Trek). Αλλά αυτό είναι καλό, γιατί το μυστήριο κάνει πιο πιθανή την κακοδιαχείριση.

Είναι εύκολο να αποδοθεί ευφυΐα στα νέα συστήματα. έχουν μια ευελιξία και χαρακτηριστικά απρόβλεπτου που συνήθως δεν συνδέουμε με την τεχνολογία των υπολογιστών. Αλλά αυτή η ευελιξία προκύπτει από απλά μαθηματικά. Ένα μεγάλο μοντέλο γλώσσας όπως το GPT-4 περιέχει ένα αθροιστικό αρχείο του τρόπου με τον οποίο συμπίπτουν συγκεκριμένες λέξεις στις τεράστιες ποσότητες κειμένου που έχει επεξεργαστεί το πρόγραμμα. Αυτός ο τεράστιος πίνακας κάνει το σύστημα να προσεγγίζει εγγενώς πολλά γραμματικά μοτίβα, μαζί με πτυχές αυτού που θα μπορούσε να ονομαστεί συγγραφικό στυλ. Όταν εισάγετε ένα ερώτημα που αποτελείται από συγκεκριμένες λέξεις με συγκεκριμένη σειρά, η καταχώρισή σας συσχετίζεται με αυτό που υπάρχει στο μοντέλο. τα αποτελέσματα μπορεί να βγαίνουν λίγο διαφορετικά κάθε φορά, λόγω της πολυπλοκότητας του συσχετισμού δισεκατομμυρίων καταχωρήσεων.

Η μη επαναλαμβανόμενη φύση αυτής της διαδικασίας μπορεί να την κάνει να την αισθανόμαστε σαν ζωντανή. Και μπορεί να κάνει τα νέα συστήματα κατά μια έννοια πιο ανθρωποκεντρικά . Όταν συνθέτετε μια νέα εικόνα με ένα εργαλείο τεχνητής νοημοσύνης, μπορεί να έχετε ένα μάτσο παρόμοιων επιλογών και στη συνέχεια να πρέπει να επιλέξετε από αυτές. Εάν είστε μαθητής που χρησιμοποιεί ένα LLM  (Large Language Model) για να κλέψετε σε μια εργασία, μπορείτε να διαβάσετε τις επιλογές που δημιουργούνται από το μοντέλο και να επιλέξετε μία. Μια τεχνολογία που δεν επαναλαμβάνεται απαιτεί λίγη ανθρώπινη επιλογή.

 

Πολλές από τις χρήσεις της τεχνητής νοημοσύνης που μου αρέσουν βασίζονται στα πλεονεκτήματα που αποκομίζουμε όταν οι υπολογιστές γίνονται λιγότερο άκαμπτοι. Το ψηφιακό υλικό, όπως γνωρίζουμε, έχει μια εύθραυστη ποιότητα που αναγκάζει τους ανθρώπους να συμμορφώνονται με αυτό, αντί να το αξιολογούν. Όλοι έχουμε υπομείνει την αγωνία να παρακολουθούμε μια ταλαίπωρη γραμματέα σε ένα ιατρείο να παλεύει να κάνει το αναμενόμενο στην οθόνη της ρεσεψιόν. Το πρόσωπο συσπάται. υπονομεύεται η ανθρωπότητα. Η ανάγκη συμμόρφωσης με τα ψηφιακά σχέδια έχει δημιουργήσει μια προσδοκία ανθρώπινης υποταγής. Μια θετική στροφή στην τεχνητή νοημοσύνη είναι ότι μπορεί να σημάνει το τέλος αυτού του βασανιστηρίου, αν το χρησιμοποιήσουμε καλά. Μπορούμε τώρα να φανταστούμε έναν ιστότοπο που αναδιατυπώνεται εν κινήσει για κάποιον που έχει αχρωματοψία, ας πούμε, ή έναν ιστότοπο που προσαρμόζεται στις ιδιαίτερες γνωστικές ικανότητες και στυλ κάποιου. Ένας ανθρωπιστής σαν εμένα θέλει οι άνθρωποι να έχουν περισσότερο έλεγχο, αντί να επηρεάζονται υπερβολικά ή να καθοδηγούνται από την τεχνολογία. Η ευελιξία μπορεί να μας δώσει πίσω κάποια δυνατότητα αυτενέργειας.

Ωστόσο, παρά αυτά τα πιθανά πλεονεκτήματα, είναι περισσότερο από εύλογο να ανησυχούμε ότι η νέα τεχνολογία θα μας ωθήσει με τρόπους που δεν μας αρέσουν ή δεν κατανοούμε. Πρόσφατα, ορισμένοι φίλοι μου κυκλοφόρησαν ένα αίτημα για συγκέντρωση υπογραφών ζητώντας μια παύση για την πιο φιλόδοξη ανάπτυξη τεχνητής νοημοσύνης. Η ιδέα ήταν ότι θα εργαζόμασταν για την θέσμιση πολιτικού πλαισίου  κατά τη διάρκεια αυτής της παύσης. Η αίτηση υπογράφηκε από κάποιους στην κοινότητά μας αλλά όχι από άλλους. Βρήκα την ιδέα πολύ θολή – ποιο επίπεδο προόδου θα σήμαινε ότι η παύση θα μπορούσε να τελειώσει; Κάθε εβδομάδα, λαμβάνω νέες αλλά πάντα ασαφείς δηλώσεις αποστολής  (Η δήλωση αποστολής είναι μια δήλωση του σκοπού μιας εταιρείας ή οργανισμού. Η δήλωση αποστολής καθοδηγεί τις δράσεις του οργανισμού, διευκρινίζει το γενικό του στόχο, παρέχει ένα μονοπάτι και καθοδηγεί στη λήψη αποφάσεων. -Wikipedia) από οργανισμούς που επιδιώκουν να ξεκινήσουν διαδικασίες για τον καθορισμό της πολιτικής πάνω στην AI.

Αυτές οι προσπάθειες είναι καλοπροαίρετες, αλλά μου φαίνονται απελπιστικές. Για χρόνια, εργάστηκα για τις πολιτικές απορρήτου της ΕΕ και συνειδητοποίησα ότι δεν ξέρουμε τι είναι το απόρρητο. Είναι ένας όρος που χρησιμοποιούμε καθημερινά και μπορεί να έχει νόημα στο πλαίσιο, αλλά δεν μπορούμε να τον ξεχωρίσουμε αρκετά καλά για να γενικεύσουμε. Ο πιο κοντινός ορισμός του ιδιωτικού απορρήτου  είναι πιθανώς «το δικαίωμα να σε αφήνουν ήσυχο», αλλά αυτό φαίνεται αλλόκοτο σε μια εποχή που εξαρτόμαστε συνεχώς από τις ψηφιακές υπηρεσίες. Στο πλαίσιο της τεχνητής νοημοσύνης, «το δικαίωμα να μην γίνεται χειρισμός μέσω υπολογισμού» φαίνεται σχεδόν σωστό, αλλά δεν λέει ακριβώς όλα όσα θα θέλαμε.

Οι συζητήσεις σχετικά με την πολιτική για την AI κυριαρχούνται από όρους όπως «ευθυγράμμιση» (είναι αυτό που «θέλει» μια τεχνητή νοημοσύνη σε ευθυγράμμιση με αυτό που θέλουν οι άνθρωποι;), «ασφάλεια» (μπορούμε να προβλέψουμε προστατευτικά κιγκλιδώματα που θα αποτρέψουν μια κακή τεχνητή νοημοσύνη;) και «δικαιοσύνη» ( μπορούμε να αποτρέψουμε όλους τους τρόπους με τους οποίους ένα πρόγραμμα μπορεί να αντιμετωπίζει ορισμένα άτομα με δυσμένεια;). Η κοινότητα έχει επιτύχει σίγουρα πολλά καλά ακολουθώντας αυτές τις ιδέες, αλλά αυτό δεν έχει καταπνίξει τους φόβους μας. Καταλήγουμε να παρακινούμε τους ανθρώπους να προσπαθήσουν να παρακάμψουν τις ασαφείς προστασίες που δημιουργήσαμε. Παρόλο που οι προστασίες βοηθούν, το όλο θέμα γίνεται παιχνίδι – σαν να προσπαθείς να ξεγελάσεις ένα ύπουλο τζίνι. Το αποτέλεσμα είναι ότι η ερευνητική κοινότητα της τεχνητής νοημοσύνης κοινοποιεί την προειδοποίηση ότι οι δημιουργίες τους μπορεί να σκοτώσουν ολόκληρη την ανθρωπότητα σύντομα, ενώ προτείνει ολοένα και πιο επείγουσες, αλλά πομπώδεις, συμβουλευτικές διαδικασίες.

Πρόσφατα, δοκίμασα ένα άτυπο πείραμα, τηλεφώνησα σε συναδέλφους και τους ρώτησα αν υπάρχει κάτι συγκεκριμένο στο οποίο μπορούμε να συμφωνήσουμε όλοι. Διαπίστωσα ότι υπάρχει μια βάση συμφωνίας. Φαίνεται ότι όλοι συμφωνούμε ότι τα deepfakes —ψευδείς αλλά αληθοφανείς  εικόνες, βίντεο και ούτω καθεξής— θα πρέπει να επισημαίνονται ως τέτοια από τα προγράμματα που τα δημιουργούν. Οι επικοινωνίες που προέρχονται από τεχνητά άτομα και οι αυτοματοποιημένες αλληλεπιδράσεις που έχουν σχεδιαστεί για να χειραγωγούν τη σκέψη ή τις ενέργειες ενός ανθρώπου, θα πρέπει επίσης να επισημαίνονται. Συμφωνούμε επίσης ότι αυτές οι ετικέτες πρέπει να συνοδεύονται από ενέργειες που μπορούν να γίνουν. Οι άνθρωποι θα πρέπει να μπορούν να καταλαβαίνουν τι βλέπουν και θα πρέπει να έχουν λογικές επιλογές σε αντάλλαγμα.

 

 

Πώς μπορούν να γίνουν όλα αυτά; Υπάρχει επίσης σχεδόν ομοφωνία, θεωρώ, ότι η φύση του μαύρου κουτιού των σημερινών εργαλείων τεχνητής νοημοσύνης πρέπει να τελειώσει. Τα συστήματα πρέπει να γίνουν πιο διαφανή. Πρέπει να γίνουμε καλύτεροι στο να λέμε τι συμβαίνει μέσα τους και γιατί. Αυτό δεν θα είναι εύκολο. Το πρόβλημα είναι ότι τα μεγάλα μοντέλα τεχνητής νοημοσύνης για τα οποία μιλάμε δεν αποτελούνται από ξεκάθαρες ιδέες. Δεν υπάρχει σαφής αναπαράσταση του τι «θέλει» το σύστημα, ούτε ταμπέλα για το πότε κάνει ένα συγκεκριμένο πράγμα, όπως η χειραγώγηση ενός ατόμου. Υπάρχει μόνο ένας γιγάντιος ωκεανός από ζελέ — μια τεράστια μαθηματική ανάμειξη. Μια ομάδα για τα δικαιώματα των συγγραφέων πρότεινε να πληρώνονται πλήρως οι πραγματικοί δημιουργοί όταν χρησιμοποιούνται εργαλεία όπως το GPT στη διαδικασία συγγραφής σεναρίου. Εξάλλου, το σύστημα βασίζεται σε σενάρια που έχουν φτιάξει πραγματικοί άνθρωποι. Αλλά όταν χρησιμοποιούμε την τεχνητή νοημοσύνη για την παραγωγή κλιπ ταινιών και ενδεχομένως ολόκληρων ταινιών, δεν θα υπάρξει απαραίτητα φάση σεναρίου. Μπορεί να δημιουργηθεί μια ταινία που φαίνεται να έχει σενάριο, soundtrack και ούτω καθεξής, αλλά θα έχει υπολογιστεί ως σύνολο. Ομοίως, κανένα σκίτσο δεν προηγείται της δημιουργίας ενός πίνακα από μια AI εικονογράφησης.  Το να γίνει προσπάθεια να ανοίξει το μαύρο κουτί κάνοντας ένα σύστημα να ξεστομίσει, περιττά σε κάθε άλλη περίπτωση αντικείμενα όπως σενάρια, σκίτσα ή προθέσεις θα περιλαμβάνει την κατασκευή ενός άλλου μαύρου κουτιού για την ερμηνεία του πρώτου – δηλαδή δημιουργείται  υποτροπή στο άπειρο.

 

Ταυτόχρονα, δεν είναι αλήθεια ότι το εσωτερικό ενός μεγάλου μοντέλου πρέπει να είναι μια ερημιά χωρίς ίχνη. Μπορεί να μην γνωρίζουμε τι είναι μια «ιδέα» από τυπική, υπολογιστική σκοπιά, αλλά θα μπορούσαν να υπάρχουν ίχνη φτιαγμένα όχι από ιδέες αλλά από ανθρώπους. Κάποια στιγμή στο παρελθόν, ένα πραγματικό πρόσωπο δημιούργησε μια εικόνα που εισήχθη ως δεδομένα στο μοντέλο και, σε συνδυασμό με συνεισφορές άλλων ανθρώπων, μεταμορφώθηκε σε μια νέα εικόνα. Η τεχνητή νοημοσύνη μεγάλου μοντέλου αποτελείται από ανθρώπους – και ο τρόπος για να ανοίξετε το μαύρο κουτί είναι να τους αποκαλύψετε.

Αυτή η ιδέα, στην οποία έχω συνεισφέρει, ονομάζεται συνήθως «αξιοπρέπεια δεδομένων». Εμφανίστηκε, πολύ πριν από την άνοδο του μεγάλου μοντέλου «AI», ως εναλλακτική λύση στη γνωστή ρύθμιση στην οποία οι άνθρωποι δίνουν τα δεδομένα τους δωρεάν σε αντάλλαγμα για δωρεάν υπηρεσίες, όπως αναζητήσεις στο Διαδίκτυο ή κοινωνική δικτύωση. Η αξιοπρέπεια των δεδομένων είναι μερικές φορές γνωστή ως «δεδομένα ως εργασία» ή «έρευνα πλουραλισμού». Αυτή γνωστή ρύθμιση έχει αποδειχθεί ότι έχει μια σκοτεινή πλευρά: λόγω των «εφέ δικτύου», μερικές πλατφόρμες αναλαμβάνουν τη σκυτάλη, εξαλείφοντας μικρότερους παίκτες, όπως οι τοπικές εφημερίδες. Ακόμα χειρότερα, δεδομένου ότι η άμεση διαδικτυακή εμπειρία υποτίθεται ότι είναι δωρεάν, η μόνη επιχείρηση που απομένει είναι το κυνήγι επιρροής. Οι χρήστες βιώνουν κάτι που φαίνεται να είναι ένας κοινοτικός παράδεισος, αλλά στοχοποιούνται από κρυφούς και εθιστικούς αλγόριθμους που κάνουν τους ανθρώπους ματαιόδοξους, ευερέθιστους και παρανοϊκούς.

Σε έναν κόσμο με αξιοπρέπεια δεδομένων, το ψηφιακό υλικό θα συνδέεται συνήθως με τους ανθρώπους που θέλουν να είναι γνωστοί για το ότι τα κατάφεραν. Σε ορισμένες εκδοχές της ιδέας, οι άνθρωποι θα μπορούσαν να πληρώνονται για αυτό που δημιουργούν, ακόμη και όταν φιλτράρονται και ανασυνδυάζονται μέσω μεγάλων μοντέλων, και οι τεχνολογικοί κόμβοι θα κερδίζουν αμοιβές για τη διευκόλυνση πραγμάτων που θέλουν να κάνουν οι άνθρωποι. Μερικοί άνθρωποι τρομοκρατούνται από την ιδέα του καπιταλισμού στο διαδίκτυο, αλλά αυτός θα ήταν ένας πιο έντιμος καπιταλισμός. Η γνωστή «δωρεάν» ρύθμιση ήταν καταστροφή.

Ένας από τους λόγους για τους οποίους η τεχνολογική κοινότητα ανησυχεί ότι η τεχνητή νοημοσύνη θα μπορούσε να είναι υπαρξιακή απειλή είναι ότι θα μπορούσε να χρησιμοποιηθεί για να παίξει με ανθρώπους, όπως ακριβώς ήταν το προηγούμενο κύμα ψηφιακών τεχνολογιών. Δεδομένης της ισχύος και της πιθανής εμβέλειας αυτών των νέων συστημάτων, δεν είναι παράλογο να φοβόμαστε την εξαφάνιση ως πιθανό αποτέλεσμα. Δεδομένου ότι αυτός ο κίνδυνος είναι ευρέως αναγνωρισμένος, η άφιξη της τεχνητής νοημοσύνης μεγάλου μοντέλου θα μπορούσε να αποτελέσει αφορμή για την αναμόρφωση της βιομηχανίας τεχνολογίας προς το καλύτερο.

Η εφαρμογή της αξιοπρέπειας των δεδομένων θα απαιτήσει τεχνική έρευνα και καινοτομία πολιτικής θέσμισης. Υπό αυτή την έννοια, το θέμα με ενθουσιάζει ως επιστήμονα. Το άνοιγμα του μαύρου κουτιού θα κάνει τα μοντέλα πιο ενδιαφέροντα. Και μπορεί να μας βοηθήσει να καταλάβουμε περισσότερα για τη γλώσσα, η οποία είναι η ανθρώπινη εφεύρεση που πραγματικά εντυπωσιάζει, και αυτή που εξακολουθούμε να εξερευνούμε μετά από τόσα πολλά εκατοντάδες χιλιάδες χρόνια.

Θα μπορούσε η αξιοπρέπεια των δεδομένων να αντιμετωπίσει τις οικονομικές ανησυχίες που εκφράζονται συχνά για την τεχνητή νοημοσύνη; Το κύριο μέλημα είναι ότι οι εργαζόμενοι θα υποτιμηθούν ή θα εκτοπιστούν. Δημόσια, οι μυημένοι στην τεχνολογία θα πουν μερικές φορές ότι, τα επόμενα χρόνια, οι άνθρωποι που εργάζονται με AI θα είναι πιο παραγωγικοί και θα βρουν νέους τύπους θέσεων εργασίας σε μια πιο παραγωγική οικονομία. (Ένας εργαζόμενος μπορεί να γίνει μηχανικός για προγράμματα τεχνητής νοημοσύνης, για παράδειγμα – κάποιος που συνεργάζεται ή ελέγχει μια τεχνητή νοημοσύνη) Και όμως, ιδιωτικά, οι ίδιοι άνθρωποι θα πουν πολύ συχνά, «Όχι, η τεχνητή νοημοσύνη θα υπερβεί αυτήν την ιδέα της συνεργασίας». Όχι άλλη αμοιβή για τους σημερινούς λογιστές, ακτινολόγους, οδηγούς φορτηγών, συγγραφείς, σκηνοθέτες ή μουσικούς.

Μια προσέγγιση αξιοπρέπειας δεδομένων θα εντόπιζε τους πιο μοναδικούς και σημαντικούς συντελεστές όταν ένα μεγάλο μοντέλο παρέχει πολύτιμο αποτέλεσμα. Για παράδειγμα, αν ζητήσετα από ένα μοντέλο AI να σας δώσει «μια ταινία κινουμένων σχεδίων με τα παιδιά μου σε έναν κόσμο ελαιογραφίας με ομιλούντες γάτες που παίζουν σε μια περιπέτεια», τότε ορισμένοι βασικοί ζωγράφοι, εικαστικοί καλλιτέχνες πορτραίτων γατιών, ηθοποιοί φωνής και συγγραφείς —ή τα έργα τους— μπορεί να υπολογιστεί ότι ήταν μοναδικά απαραίτητοι για τη δημιουργία του νέου αριστουργήματος. Θα αναγνωρίζονταν και θα παρακινούνταν. Ίσως και να πληρώνονταν.

Υπάρχει μια νεοσύστατη ερευνητική κοινότητα δεδομένων αξιοπρέπειας, και εδώ δίνω ένα παράδειγμα διαβούλευσης εντός αυτής: Πόσο λεπτομερώς πρέπει να επιχειρήσει μια λογιστική αξιοπρέπεια δεδομένων; Δεν συμφωνούν όλοι. Το σύστημα δεν θα αντιπροσώπευε απαραιτήτως τα δισεκατομμύρια των ανθρώπων που έχουν συνεισφέρει στο περιβάλλον σε μεγάλα μοντέλα—αυτούς που έχουν προσθέσει στην προσομοιωμένη ικανότητα ενός μοντέλου με τη γραμματική, για παράδειγμα. Αρχικά, η αξιοπρέπεια των δεδομένων μπορεί να αφορά μόνο τον μικρό αριθμό ειδικών συντελεστών που εμφανίζονται σε μια δεδομένη κατάσταση. Με την πάροδο του χρόνου, ωστόσο, μπορεί να συμπεριληφθούν περισσότεροι άνθρωποι, καθώς οργανώσεις δικαιωμάτων μεσαζόντων – συνδικάτα, συντεχνίες, επαγγελματικές ομάδες κ.λπ. – αρχίζουν να παίζουν ρόλο. Τα άτομα στην κοινότητα της αξιοπρέπειας δεδομένων αποκαλούν μερικές φορές αυτές τις αναμενόμενες ομάδες μεσολαβητές ατομικών δεδομένων ( mids) ή καταπιστεύματα δεδομένων. Οι άνθρωποι χρειάζονται συλλογική δύναμη διαπραγμάτευσης για να έχουν αξία σε έναν διαδικτυακό κόσμο—ειδικά όταν μπορεί να χαθούν σε ένα γιγάντιο μοντέλο AI. Και όταν οι άνθρωποι μοιράζονται την ευθύνη σε μια ομάδα, αυτο-αστυνομεύονται, μειώνοντας την ανάγκη ή τον πειρασμό για τις κυβερνήσεις και τις εταιρείες να λογοκρίνουν ή να ελέγχουν από ψηλά. Το να αναγνωρίζουμε την ανθρώπινη ουσία των μεγάλων μοντέλων μπορεί να οδηγήσει στην άνθηση νέων θετικών κοινωνικών θεσμών.

Η αξιοπρέπεια των δεδομένων δεν αφορά μόνο τους υπαλληλικούς (γραφειοκρατικής εργασίας) ρόλους. Σκεφτείτε τι μπορεί να συμβεί εάν εισαχθούν ρομπότ κοπής δέντρων που βασίζονται σε τεχνητή νοημοσύνη. Οι μηχανές κοπής ανθρώπινων δέντρων μπορεί να βρεθούν υποτιμημένοι ή ακόμα και χωρίς δουλειά. Αλλά τα ρομπότ θα μπορούσαν τελικά να επιτρέψουν έναν νέο τύπο έμμεσης τέχνης αρχιτεκτονικής κήπων. Μερικοί πρώην εργάτες ή άλλοι, μπορεί να δημιουργήσουν εφευρετικές προσεγγίσεις – ολογραφική φυτογλυπτική, ας πούμε, που φαίνεται διαφορετικά από διαφορετικές οπτικές γωνίες – που βρίσκουν τον δρόμο τους στα μοντέλα κοπής δέντρων της AI. Με αξιοπρέπεια δεδομένων, τα μοντέλα ενδέχεται να δημιουργήσουν νέες πηγές εισοδήματος, που διανέμονται μέσω συλλογικών οργανώσεων. Το κόψιμο των δέντρων θα γινόταν πιο πολυλειτουργικό και ενδιαφέρον με την πάροδο του χρόνου. θα υπήρχε μια κοινότητα με κίνητρο να παραμείνει πολύτιμη. Κάθε νέα επιτυχημένη εισαγωγή μιας τεχνητής νοημοσύνης ή μιας ρομποτικής εφαρμογής θα μπορούσε να περιλαμβάνει τα εγκαίνια ενός νέου είδους δημιουργικής εργασίας.

Πολλοί άνθρωποι στη Silicon Valley βλέπουν τη καθιέρωση παγκόσμιου βασικού εισοδήματος σαν λύση σε πιθανά οικονομικά προβλήματα που δημιουργούνται από την τεχνητή νοημοσύνη. Αυτή είναι μια τρομακτική ιδέα, νομίζω, εν μέρει επειδή οι κακόβουλοι παράγοντες θα θελήσουν να καταλάβουν  τα κέντρα εξουσίας σε ένα καθολικό σύστημα πρόνοιας, όπως σε κάθε κομμουνιστικό πείραμα. Αμφιβάλλω ότι η αξιοπρέπεια των δεδομένων θα μπορούσε ποτέ να αυξηθεί αρκετά ώστε να συντηρήσει ολόκληρη την κοινωνία, αλλά αμφιβάλλω ότι οποιαδήποτε κοινωνική ή οικονομική αρχή θα είναι ποτέ ολοκληρωμένη. Όποτε είναι δυνατόν, ο στόχος θα πρέπει να είναι τουλάχιστον η δημιουργία μιας νέας δημιουργικής τάξης αντί για μια νέα εξαρτημένη τάξη.

 

Υπάρχουν επίσης μη αλτρουιστικοί λόγοι για τις εταιρείες τεχνητής νοημοσύνης να ενστερνιστούν την αξιοπρέπεια των δεδομένων. Τα μοντέλα είναι τόσο καλά όσο και οι εισροές τους. Μόνο μέσω ενός συστήματος όπως το data dignity μπορούμε να επεκτείνουμε τα μοντέλα σε νέα όρια. Αυτή τη στιγμή, είναι πολύ πιο εύκολο να πείσετε ένα LLM να γράψει ένα δοκίμιο παρά να ζητήσετε από το πρόγραμμα να δημιουργήσει έναν διαδραστικό κόσμο εικονικής πραγματικότητας, επειδή υπάρχουν πολύ λίγοι εικονικοί κόσμοι. Γιατί να μην λύσετε αυτό το πρόβλημα δίνοντας στους ανθρώπους που προσθέτουν περισσότερους εικονικούς κόσμους μια ευκαιρία για κύρος και εισόδημα;

Θα μπορούσε η αξιοπρέπεια των δεδομένων να βοηθήσει σε οποιοδήποτε από τα σενάρια εξόντωσης του ανθρώπου; Ένα μεγάλο μοντέλο θα μπορούσε να μας κάνει ανίκανους ή να μας μπερδέψει τόσο πολύ που η κοινωνία μας να ξεφύγει συλλογικά. ένα ισχυρό, κακόβουλο άτομο θα μπορούσε να χρησιμοποιήσει την τεχνητή νοημοσύνη για να μας κάνει όλους μεγάλο κακό. και μερικοί άνθρωποι πιστεύουν επίσης ότι το ίδιο το μοντέλο θα μπορούσε να κάνει αποδράσει από περιορισμούς ασφαλείας, παίρνοντας τον έλεγχο των μηχανών ή των όπλων μας και χρησιμοποιώντας τα εναντίον μας.

Μπορούμε να βρούμε προηγούμενα συμβάντα για ορισμένα από αυτά τα σενάρια όχι μόνο στην επιστημονική φαντασία αλλά σε πιο συνηθισμένες αποτυχίες της αγοράς και της τεχνολογίας. Ένα παράδειγμα είναι η καταστροφή του 2019 που σχετίζεται με τα αεροσκάφη 737 max της Boeing. Τα αεροπλάνα περιλάμβαναν ένα χαρακτηριστικό διόρθωσης διαδρομής πτήσης που σε ορισμένες περιπτώσεις αντιστάθηκε στους πιλότους, προκαλώντας δύο συντριβές με μαζικές απώλειες. Το πρόβλημα δεν ήταν η τεχνολογία μεμονωμένα αλλά ο τρόπος με τον οποίο ενσωματώθηκε στον κύκλο πωλήσεων, τις εκπαιδευτικές συνεδρίες, τη διεπαφή χρήστη και την τεκμηρίωση. Οι πιλότοι πίστευαν ότι έκαναν το σωστό προσπαθώντας να αντιμετωπίσουν το σύστημα σε ορισμένες συνθήκες, αλλά έκαναν ακριβώς το λάθος και δεν είχαν κανένα τρόπο να το ξέρουν. Η Boeing απέτυχε να επικοινωνήσει με σαφήνεια για το πώς λειτουργούσε η τεχνολογία και η προκύπτουσα σύγχυση οδήγησε σε καταστροφή.

Οτιδήποτε κατασκευασμένο – αυτοκίνητα, γέφυρες, κτίρια – μπορεί να προκαλέσει βλάβη στους ανθρώπους, και παρόλα αυτά έχουμε χτίσει έναν πολιτισμό βασισμένο στη μηχανική. Με την αύξηση και τη διεύρυνση της ανθρώπινης συνείδησης, ευθύνης και συμμετοχής μπορούμε να κάνουμε την αυτοματοποίηση ασφαλή. Αντίθετα, εάν αντιμετωπίζουμε τις εφευρέσεις μας ως απόκρυφα αντικείμενα, δύσκολα μπορούμε να είμαστε καλοί μηχανικοί. Το να βλέπουμε την τεχνητή νοημοσύνη ως μια μορφή κοινωνικής συνεργασίας είναι πιο λειτουργικό: μας δίνει πρόσβαση στο μηχανοστάσιο, το οποίο αποτελείται από ανθρώπους.

Ας εξετάσουμε το αποκαλυπτικό σενάριο στο οποίο η τεχνητή νοημοσύνη απομακρύνει την κοινωνία μας από τις ράγες. Ένας τρόπος για να συμβεί αυτό είναι μέσω deepfakes. Ας υποθέσουμε ότι ένας κακός άνθρωπος, που ίσως εργάζεται σε μια αντίπαλη κυβέρνηση σε πολεμική βάση, αποφασίζει να προκαλέσει μαζικό πανικό στέλνοντας σε όλους μας πειστικά βίντεο με βασανιστήρια ή απαγωγή αγαπημένων μας προσώπων από τα σπίτια μας. (Τα δεδομένα που είναι απαραίτητα για τη δημιουργία τέτοιων βίντεο είναι, σε πολλές περιπτώσεις, εύκολο να αποκτηθούν μέσω των μέσων κοινωνικής δικτύωσης ή άλλων καναλιών.) Θα επακολουθούσε χάος, ακόμη κι αν σύντομα γινόταν σαφές ότι τα βίντεο ήταν πλαστά. Πώς θα μπορούσαμε να αποτρέψουμε ένα τέτοιο σενάριο; Η απάντηση είναι προφανής: οι ψηφιακές πληροφορίες πρέπει να έχουν πλαίσιο. Οποιαδήποτε συλλογή από bit χρειάζεται ιστορικό. Όταν χάνεις το πλαίσιο, χάνεις τον έλεγχο.

Γιατί τα bits δεν συνδέονται με τις ιστορίες της προέλευσής τους; Υπάρχουν πολλοί λόγοι. Ο αρχικός σχεδιασμός του Ιστού δεν παρακολουθούσε από πού προέρχονταν τα bits, πιθανότατα θα διευκόλυνε τη γρήγορη ανάπτυξη του δικτύου. (Οι υπολογιστές και το εύρος ζώνης ήταν φτωχά στην αρχή.) Γιατί δεν αρχίσαμε να θυμόμαστε από πού προήλθαν τα bits όταν έγινε πιο εφικτό τουλάχιστον κατά προσέγγιση η ψηφιακή προέλευση; Πάντα ένιωθα ότι θέλαμε ο Ιστός να είναι πιο μυστηριώδης από όσο έπρεπε. Όποιος κι αν είναι ο λόγος, ο Ιστός φτιάχτηκε για να θυμάται τα πάντα, ξεχνώντας παράλληλα το περιεχόμενό του.

Σήμερα, οι περισσότεροι άνθρωποι θεωρούν δεδομένο ότι ο Ιστός, και μάλιστα το Διαδίκτυο πάνω στο οποίο είναι χτισμένο, είναι, από τη φύση του, κατά των συμφραζομένων και στερείται προέλευσης. Υποθέτουμε ότι η αποσύνδεση από τα συμφραζόμενα (από το περιεχόμενό του) είναι εγγενής στην ίδια την ιδέα ενός ψηφιακού δικτύου. Αυτό δεν ήταν ποτέ έτσι, ωστόσο. Οι αρχικές προτάσεις για την αρχιτεκτονική ψηφιακών δικτύων, που υποβλήθηκαν από τον μνημειώδη επιστήμονα Vannevar Bush το 1945 και τον επιστήμονα υπολογιστών Ted Nelson το 1960, διατήρησαν την προέλευση (των δεδομένων) . Τώρα η τεχνητή νοημοσύνη αποκαλύπτει το πραγματικό κόστος της παράβλεψης αυτής της προσέγγισης. Χωρίς προέλευση, δεν έχουμε τρόπο να ελέγξουμε τα AI μας ή να τα κάνουμε οικονομικά δίκαια. Και αυτό κινδυνεύει να ωθήσει την κοινωνία μας στο χείλος του γκρεμού.

Εάν ένα chatbot φαίνεται χειριστικό, κακόβουλο, παράξενο ή παραπλανητικό, τι είδους απάντηση θέλουμε όταν ρωτάμε γιατί; Η αποκάλυψη των απαραίτητων αναφορικών παραδειγμάτων από τα οποία το ρομπότ έμαθε τη συμπεριφορά του θα έδινε μια εξήγηση: θα μάθαμε ότι βασίστηκε σε ένα συγκεκριμένο έργο φαντασίας, ας πούμε, ή σε μια σαπουνόπερα. Θα μπορούσαμε να αντιδράσουμε σε αυτό το αποτέλεσμα διαφορετικά και να προσαρμόσουμε τις εισόδους του μοντέλου για να το βελτιώσουμε. Γιατί να μην είναι πάντα διαθέσιμη αυτού του είδους η εξήγηση; Μπορεί να υπάρχουν περιπτώσεις στις οποίες η προέλευση δεν θα πρέπει να αποκαλυφθεί, ώστε να δοθεί προτεραιότητα στο απόρρητο — αλλά η προέλευση θα είναι συνήθως πιο ωφέλιμη για τα άτομα και την κοινωνία από ό,τι μια αποκλειστική δέσμευση για το απόρρητο.

Οι τεχνικές προκλήσεις της αξιοπρέπειας των δεδομένων είναι πραγματικές και πρέπει να εμπνέουν σοβαρές επιστημονικές φιλοδοξίες. Οι προκλήσεις της πολιτικής θα ήταν επίσης ουσιαστικές – ένα σημάδι, ίσως, ότι είναι ουσιαστικές και συγκεκριμένες. Αλλά πρέπει να αλλάξουμε τον τρόπο που σκεφτόμαστε και να αγκαλιάσουμε τη σκληρή δουλειά της ανακαίνισης. Επιμένοντας στις ιδέες του παρελθόντος -μεταξύ αυτών, μια γοητεία με τη δυνατότητα μιας τεχνητής νοημοσύνης που ζει ανεξάρτητα από τους ανθρώπους που συνεισφέρουν σε αυτήν- κινδυνεύουμε να χρησιμοποιήσουμε τις νέες τεχνολογίες μας με τρόπους που κάνουν τον κόσμο χειρότερο. Εάν η κοινωνία, η οικονομία, ο πολιτισμός, η τεχνολογία ή οποιοσδήποτε άλλος τομέας δραστηριότητας πρόκειται να εξυπηρετεί τους ανθρώπους, αυτό μπορεί να οφείλεται μόνο στο ότι αποφασίζουμε ότι οι άνθρωποι απολαμβάνουν το να υπηρετείται ένα ειδικό καθεστώς .

Αυτή είναι η έκκλησή μου προς όλους τους συναδέλφους μου. Σκεφτείτε τους ανθρώπους. Οι άνθρωποι είναι η απάντηση στα προβλήματα των bits. 

 

Σχετικά άρθρα

Καλάθι Αγορών
Σύνδεση

Δεν έχετε ακόμη λογαριασμό;

Χρησιμοποιούμε cookies για να βελτιώσουμε την εμπειρία σας στον ιστότοπό μας. Με την περιήγηση σε αυτόν τον ιστότοπο, συμφωνείτε με τη χρήση των cookies από εμάς.

Κατάστημα
Πλευρική Στήλη
0 προϊόντα Καλάθι
Ο λογαριασμός μου