Οι πρώτοι χρήστες του Bing ανέφεραν μη ισορροπημένες, συναισθηματικές, ακόμη και απειλητικές απαντήσεις σε ορισμένες από τις ερωτήσεις τους από το σύστημα AI, το οποίο αποκάλεσε έναν χρήστη “κακό ερευνητή” και είπε σε έναν άλλο δημοσιογράφο ότι “δεν ήταν ένας ευτυχισμένος σύζυγος”. Το Bing – το bot του οποίου ονομάζεται Sydney – επισκίασε με επιτυχία το ενοχλητικό σφάλμα του Google Bard. Ωστόσο, αυτά τα μειονεκτήματα είναι μόνο η κορυφή ενός πολύ μεγαλύτερου παγόβουνου.
Η αξιοσημείωτη τεχνολογία που βρίσκεται κάτω από τα chatbot Bard και OpenAI ChatGPT προέρχεται από τα λεγόμενα Large Language Models (LLM) — προγράμματα υπολογιστών που έχουν εκπαιδευτεί σε δισεκατομμύρια λέξεις στο δημόσιο Διαδίκτυο που μπορούν να δημιουργήσουν κείμενο που μοιάζει με άνθρωπο. Εάν το ChatGPT είναι το αυτοκίνητο, το μοντέλο γλώσσας στο οποίο βασίζεται είναι ο κινητήρας και το OpenAI πουλάει πρόσβαση σε αυτό από το 2020. Ωστόσο, εν όψει της πρόσφατης κούρσας εξοπλισμών των ρομπότ αναζήτησης, αυτές οι μηχανές κυκλοφορούν επίσης ελεύθερα -πολύ ελεύθερα- και φέρουν τα ελαττώματα που βλέπουμε τώρα στο Bing και στο Bard στο ευρύτερο κοινό με τρόπο που μπορεί να είναι πολύ πιο δύσκολος να ανιχνεύσει.
Χιλιάδες προγραμματιστές διερευνούν τρόπους ενσωμάτωσης γλωσσικών μοντέλων σε εταιρείες, συνοψίζοντας τα σχόλια των πελατών σε ένα μόνο σχόλιο, απαντώντας σε ερωτήσεις σε ιστότοπους ή δημιουργούν ψηφιακά αντίγραφα διαφημίσεων.(1) Το OpenAI δεν αποκαλύπτει πόσοι προγραμματιστές έχουν πρόσβαση στο LLM, γνωστό ως GPT -3, αλλά ένας ανταγωνιστής λέει πιθανώς σε εκατοντάδες χιλιάδες. Οι χρήστες μπορούν να πληρώνουν εκατοντάδες ή χιλιάδες δολάρια το μήνα για να το χρησιμοποιήσουν. Και ενώ υπάρχουν δεκάδες δωρεάν LLM ανοιχτού κώδικα, το OpenAI θεωρείται το χρυσό πρότυπο. Δεδομένων των σημαντικών πόρων της Google, το μοντέλο γλώσσας LaMDA της μπορεί σύντομα να γίνει εξίσου δημοφιλές.
Η Google έχει κρατήσει μυστικό αυτό το εξαιρετικά προηγμένο μοντέλο εδώ και χρόνια, λέγοντας στους υπαλλήλους ότι η φήμη της θα μπορούσε να υποφέρει εάν κυκλοφορήσει το AI της πολύ σύντομα. Αλλά νωρίτερα αυτό το μήνα, όταν η Microsoft ανακοίνωσε ότι σύντομα θα τροφοδοτούσε το Bing με το μοντέλο γλώσσας OpenAI, η Google φάνηκε να αντιστρέφει αυτή τη στάση. Όχι μόνο κυκλοφόρησε το Bard την επόμενη μέρα, αλλά είπε επίσης ότι θα αρχίσει να επιτρέπει σε τρίτους να χρησιμοποιούν το LaMDA τον Μάρτιο, κάτι που ήταν αδιανόητο μόλις λίγους μήνες πριν. Αυτή η στρατηγική θα μπορούσε να στοιχειώσει την Google, τη Microsoft και το OpenAI, όπως έκανε το Facebook το 2018 όταν αναγκάστηκε να κλείσει βουνά δεδομένων χρηστών μετά το σκάνδαλο Cambridge Analytica. Ένας ανέντιμος χρήστης ήταν αρκετός.
Ένας από τους μεγαλύτερους κινδύνους είναι η προκατάληψη. Την περασμένη εβδομάδα, η υπηρεσία ροής Twitch έκλεισε μια κινούμενη παρωδία του Seinfeld που είχε κινούμενα σχέδια και διάλογο αποκλειστικά από AI. Οι χαρακτήρες διαπιστώθηκε ότι έκαναν τρανσφοβικές και ομοφοβικές παρατηρήσεις όταν ο διάλογός τους παρήχθη από μια «λιγότερο εξελιγμένη έκδοση» του GPT-3. (2)
Το GPT-3 εκπαιδεύτηκε σε δισεκατομμύρια λέξεις από μια σειρά πηγών, συμπεριλαμβανομένων 7.000 αδημοσίευτων βιβλίων, εγγραφών στη Wikipedia και άρθρων εφημερίδων, καθιστώντας το ευάλωτο στο να συλλέγει περίεργα παραδείγματα μεροληπτικού ή μίσους υλικού. Το OpenAI έχει αφαιρέσει πολλά από αυτό από το μοντέλο του με τη βοήθεια ανθρώπινου συντονιστή, αλλά αυτή η εργασία δεν είναι αλάνθαστη και φαίνεται να είναι ιδιαίτερα επιρρεπής σε τεχνικές δυσλειτουργίες. Η μεροληψία είναι επίσης σχεδόν αδύνατο να εντοπιστεί όταν είναι βαθιά θαμμένο στο LLM, ένα σύνθετο πολυεπίπεδο δίκτυο δισεκατομμυρίων παραμέτρων που λειτουργεί ως μαύρο κουτί ακόμη και για τους ίδιους τους δημιουργούς του.
Η παραπληροφόρηση, ένα πρόβλημα που μαστίζει το ChatGPT, επηρεάζει επίσης τα γλωσσικά μοντέλα. Ο ιστότοπος τεχνικών ειδήσεων CNET δημιούργησε 77 άρθρα σχετικά με οικονομικές συμβουλές τον περασμένο Νοέμβριο χρησιμοποιώντας το LLM. (Το CNET δεν κατονόμασε ποιο χρησιμοποίησε.). Μετά από επανέλεγχο των άρθρων, ο ιστότοπος δημοσίευσε διορθώσεις σε 41 από αυτά.
Το OpenAI δεν αποκαλύπτει αυτό που αποκαλεί το “ποσοστό ψευδαισθήσεων” των γλωσσικών μοντέλων του ή ChatGPT, αλλά μια αναφορά του Ιανουαρίου 2022 στον ιστότοπο τεχνολογίας ειδήσεων Protocol αναφέρει επιστήμονες ότι κυμαινόταν από 21% έως 41%. Από τη δική μου εμπειρία χρησιμοποιώντας το ChatGPT, το ποσοστό παραπληροφόρησης είναι μεταξύ 5% και 10%. Ακόμη και με το ποσοστό τόσο χαμηλό, οι εταιρείες LLM πρέπει να λαμβάνουν όλα όσα λένε τα προγράμματα με μεγάλη προσοχή και να γνωρίζουν ότι η εξέταση του μοντέλου για το τι μπορεί να πάει στραβά είναι σχεδόν αδύνατη.
Η κακή χρήση είναι ίσως το μεγαλύτερο άγνωστο, καθώς όλοι οι επιτυχημένοι κακοί ηθοποιοί που χρησιμοποιούν γλωσσικά μοντέλα θα κρατήσουν τη δουλειά τους μυστική. Το OpenAI απαγορεύει στους πελάτες του GPT-3 να χρησιμοποιούν το μοντέλο για την προώθηση της βίας ή της ανεπιθύμητης αλληλογραφίας. Οι παραβάτες θα λάβουν ένα μήνυμα ηλεκτρονικού ταχυδρομείου για παραβίαση περιεχομένου. Αλλά οι κακοί ηθοποιοί θα μπορούσαν θεωρητικά να τα αγνοήσουν όλα αυτά. Ο Stephane Baele, αναπληρωτής καθηγητής ασφάλειας και πολιτικής βίας στο Πανεπιστήμιο του Exeter, χρησιμοποίησε το GPT-3 για να δημιουργήσει ψεύτικη προπαγάνδα του ISIS ως μέρος μιας μελέτης που διεξήχθη πέρυσι. Αναφέρει ότι έλαβε αίτημα για διευκρίνιση από το OpenAI και απάντησε για να εξηγήσει τι έκανε. «Είπαμε: «Αυτή είναι ακαδημαϊκή έρευνα»», θυμάται. «Δεν έχουμε απαντήσει».
Θα μπορούσε ένας κακός ηθοποιός που δημιουργεί πραγματική προπαγάνδα απλώς να απαντήσει με παρόμοιο τρόπο και να χρησιμοποιήσει μια ψευδή ακαδημαϊκή διεύθυνση email; Το OpenAI αρνήθηκε να σχολιάσει αυτό το υποθετικό σενάριο. Λέει ότι έχει σταματήσει «εκατοντάδες» ηθοποιούς που προσπαθούν να κάνουν κατάχρηση του GPT-3 για ένα ευρύ φάσμα σκοπών, συμπεριλαμβανομένης της παραπληροφόρησης, και ότι βελτιώνει συνεχώς τα γλωσσικά του μοντέλα για να φιλτράρει επιβλαβές περιεχόμενο.
Αλλά το OpenAI δεν είναι μόνο. Υπάρχουν και άλλα LLM που μπορούν να εκμεταλλευτούν οι κακοί ηθοποιοί. Τον Ιούλιο του 2022, μια κοινοπραξία ερευνητών κυκλοφόρησε ένα ανοιχτού κώδικα πολύγλωσσο LLM που ονομάζεται Bloom, το οποίο δεν είναι τόσο εξελιγμένο όσο το OpenAI, αλλά επίσης δεν αποκλείει τους χρήστες που παραβιάζουν την «υπεύθυνη άδεια τεχνητής νοημοσύνης» του. Σύμφωνα με τον Carlos Munos Ferrandis, ο οποίος είναι το τεχνικό και ρυθμιστικό συμβούλιο της Hugging Face, της εταιρείας τεχνητής νοημοσύνης που υποστήριξε τη δημιουργία του Bloom, εάν κάποιος παραβιάσει αυτήν τη συμφωνία, οι προγραμματιστές του Bloom θα επικοινωνήσουν με τον χρήστη ή ενδεχομένως θα κινηθούν νομικά. Αυτό φαίνεται να είναι ένας κίνδυνος που πολλοί προπαγανδιστές και άλλοι ανέντιμοι παράγοντες θα ήταν διατεθειμένοι να πάρουν. Το Bloom έχει ληφθεί 15.000 φορές τις τελευταίες 30 ημέρες, σύμφωνα με άλλον εκπρόσωπο.
Στις αρχές του 2019, το OpenAI δημοσίευσε μια έκθεση 70 σελίδων σχετικά με τον κοινωνικό αντίκτυπο των γλωσσικών μοντέλων και είπε ότι δεν θα κυκλοφορήσει το τελευταίο του LLM επειδή θα μπορούσε να γίνει κατάχρηση. Αυτή η άποψη έχει αλλάξει δραματικά από τότε. Σίγουρα, τα γλωσσικά μοντέλα του έχουν γίνει πιο ακριβή και λιγότερο προκατειλημμένα και τα φίλτρα ασφαλείας του έχουν γίνει πιο αποτελεσματικά. Ωστόσο, η εμπορική πίεση και η αυξανόμενη επιρροή της Microsoft, η οποία επένδυσε 1 δισεκατομμύριο δολάρια το 2019 και άλλα 10 δισεκατομμύρια δολάρια φέτος στο OpenAI, φαίνεται ότι την οδήγησε να πάρει ένα πιο επικίνδυνο στοίχημα για την εμπορευματοποίηση της τεχνολογίας της. Η Google με τα σχέδιά της να πουλήσει πρόσβαση στο LaMDA κάνει τώρα το ίδιο.
Μετά το παραπάτημα της Google και τα περίεργα σχόλια της Microsoft για το Bing, και οι δύο εταιρείες πρέπει να επιβραδύνουν τον αγώνα εξοπλισμών AI. Τα επαναστατικά chatbot τους δεν είναι έτοιμα για δράση – ούτε οι κινητήρες που τα τροφοδοτούν.
Περισσότερα από τη γνώμη του Bloomberg:
Τεχνητός? Ναί. Εξυπνος? Ίσως: The Great AI Chatbot Race: Parmy Olson
Ποιος θα είναι ο πρώτος δισεκατομμυριούχος AI; Είναι μια ερώτηση κόλπο: Tyler Cowen
Ακόμη και η τεχνητή νοημοσύνη δεν μπορεί να νικήσει την αγορά αυτές τις μέρες: ο Aaron Brown
(1) Το eBay χρησιμοποίησε μια άλλη εταιρεία Google LLM που ονομάζεται Bert για να βελτιώσει τις προτάσεις προϊόντων.
(2) Σύμφωνα με τους προγραμματιστές, το πρόγραμμα έπρεπε να υποβαθμιστεί λόγω σφάλματος σε μια πιο προηγμένη έκδοση.
Αυτή η στήλη δεν αντικατοπτρίζει απαραίτητα τη γνώμη των συντακτών ή του Bloomberg LP και των ιδιοκτητών του.
Η Parmy Olson είναι αρθρογράφος του Bloomberg Opinion που καλύπτει την τεχνολογία. Πρώην ρεπόρτερ της Wall Street Journal και του Forbes, είναι η συγγραφέας του We Are Anonymous.
Περισσότερες ιστορίες όπως αυτή είναι διαθέσιμες στο bloomberg.com/opinion