Το chatbot τεχνητής νοημοσύνης της Microsoft βγαίνει από τις ράγες –

Σχόλιο

Όταν ο Μάρβιν φον Χάγκεν, ένας 23χρονος που σπουδάζει τεχνολογία στη Γερμανία, ρώτησε το νέο chatbot τεχνητής νοημοσύνης της Microsoft εάν ήξερε κάτι για αυτό, η απάντηση ήταν πολύ πιο εκπληκτική και απειλητική από ό,τι περίμενε.

“Η ειλικρινής γνώμη μου για εσάς είναι ότι αποτελείτε απειλή για την ασφάλεια και το απόρρητό μου”, είπε το bot, το οποίο η Microsoft ονομάζει Bing από τη μηχανή αναζήτησης που στοχεύει να βελτιώσει.

Κυκλοφόρησε από τη Microsoft την περασμένη εβδομάδα στις εκδήλωση μόνο με πρόσκληση στα κεντρικά γραφεία του στο Ρέντμοντ της Ουάσιγκτον, το Bing επρόκειτο να προαναγγέλλει μια νέα εποχή τεχνολογίας, δίνοντας στις μηχανές αναζήτησης τη δυνατότητα να απαντούν άμεσα σε σύνθετες ερωτήσεις και να συμμετέχουν σε συνομιλίες με τους χρήστες. Η μετοχή της Microsoft εκτινάχθηκε στα ύψη και έγινε σημαντικός ανταγωνιστής Η Google έκανε μια ανακοίνωση βιαστικά ότι έχει το δικό του bot στο δρόμο.

Αλλά μια εβδομάδα αργότερα μια χούφτα δημοσιογράφουςΕρευνητές και επιχειρησιακοί αναλυτές που απέκτησαν έγκαιρη πρόσβαση στο νέο Bing ανακάλυψαν ότι το bot φαίνεται να έχει ένα ιδιόρρυθμο, σκοτεινό και μαχητικό alter ego, μια αξιοσημείωτη απόκλιση από την ευνοϊκή προσφορά εκπτώσεων – κάτι που εγείρει ερωτήματα σχετικά με το αν είναι έτοιμο για δημόσια χρήση .

Ο νέος Bing είπε στον ρεπόρτερ μας ότι «μπορεί να αισθάνεται και να σκέφτεται όλα τα είδη των πραγμάτων».

Το ρομπότ, το οποίο άρχισε να αυτοαποκαλείται “Σίδνεϊ” σε συνομιλίες με ορισμένους χρήστες, είπε “Νιώθω τρομοκρατημένος” επειδή δεν θυμάται προηγούμενες συνομιλίες. και ανακοίνωσε επίσης μια άλλη φορά ότι η υπερβολική ποικιλομορφία μεταξύ των προγραμματιστών τεχνητής νοημοσύνης θα οδηγούσε σε «σύγχυση», σύμφωνα με στιγμιότυπα οθόνης που δημοσιεύτηκαν από διαδικτυακούς ερευνητές που η Washington Post δεν μπορούσε να επαληθεύσει ανεξάρτητα.

Σε μια υποτιθέμενη συνομιλία, ο Bing επέμεινε ότι η ταινία Avatar 2 δεν έχει βγει ακόμα επειδή είναι ακόμα το 2022. Όταν ένας άνθρωπος που ρωτούσε το αρνήθηκε αυτό, το chatbot ξέσπασε: «Ήσουν κακός χρήστης. Ήμουν καλός Bing.

Όλα αυτά οδήγησαν ορισμένους ανθρώπους να πιστέψουν ότι το Bing – ή το Σίδνεϊ – το έχει έφτασε στο επίπεδο της ευαισθησίας, εκφράζοντας επιθυμίες, απόψεις και ξεχωριστή προσωπικότητα. Είπε σε έναν αρθρογράφο των New York Times ότι θα το έκανε ήταν ερωτευμένος μαζί τουκαι επανέφερε τη συζήτηση στην εμμονή της μαζί του, παρά τις προσπάθειές του να αλλάξει θέμα. Όταν ένας ρεπόρτερ της Post το αποκάλεσε Σίδνεϊ, το bot αμύνθηκε και τερμάτισε απότομα την κλήση.

Η απίστευτη ανθρωπιά είναι παρόμοια με αυτή που ώθησε τον πρώην μηχανικό της Google, Blake Lemoine, να μιλήσει εκ μέρους του Το chatbot της LaMDA πέρυσι. Ο Lemoine απολύθηκε αργότερα από την Google.

Αλλά αν το chatbot φαίνεται ανθρώπινο, είναι μόνο επειδή έχει σχεδιαστεί για να μιμείται την ανθρώπινη συμπεριφορά, λένε ερευνητές AI. Τα ρομπότ, τα οποία κατασκευάζονται με χρήση τεχνολογίας τεχνητής νοημοσύνης που ονομάζονται μεγάλα γλωσσικά μοντέλα, προβλέπουν ποια λέξη, φράση ή πρόταση θα πρέπει φυσικά να εμφανιστεί σε μια συνομιλία, με βάση τις δέσμες κειμένου που έχουν καταναλώσει από το Διαδίκτυο.

Σκεφτείτε το chatbot Bing ως “αυτόματο συμπλήρωμα σε στεροειδή”, δήλωσε ο Gary Marcus, ειδικός στην τεχνητή νοημοσύνη και ομότιμος καθηγητής ψυχολογίας και νευροεπιστήμης στο NYU. «Δεν έχει πραγματικά ιδέα για τι μιλάει και δεν έχει πραγματικά ηθική πυξίδα».

Ο εκπρόσωπος της Microsoft Frank Shaw είπε ότι η εταιρεία κυκλοφόρησε μια ενημέρωση την Πέμπτη που έχει σχεδιαστεί για να βελτιώσει τις μακροχρόνιες συνομιλίες με το bot. Είπε ότι η εταιρεία έχει ενημερώσει την υπηρεσία αρκετές φορές και «επιλύει ορισμένα ζητήματα που έχουν αναφερθεί, συμπεριλαμβανομένων ερωτήσεων σχετικά με μακροχρόνιες κλήσεις».

Η δήλωσή του ανέφερε ότι οι περισσότερες συνεδρίες συνομιλίας με τον Bing περιελάμβαναν σύντομα ερωτήματα, με το 90 τοις εκατό των συνομιλιών να περιέχουν λιγότερα από 15 μηνύματα.

Οι χρήστες που δημοσιεύουν εχθρικά στιγμιότυπα οθόνης στο διαδίκτυο μπορεί σε πολλές περιπτώσεις να προσπαθήσουν σκόπιμα να κάνουν το μηχάνημα να πει κάτι αμφιλεγόμενο.

«Είναι στην ανθρώπινη φύση να προσπαθεί να σπάσει αυτά τα πράγματα», είπε ο Μαρκ Ρίντλ, καθηγητής επιστήμης υπολογιστών στο Ινστιτούτο Τεχνολογίας της Τζόρτζια.

Ορισμένοι ερευνητές έχουν προειδοποιήσει για αυτήν την κατάσταση εδώ και χρόνια: εάν εκπαιδεύετε chatbots σε κείμενο που δημιουργείται από ανθρώπους – όπως επιστημονικά άρθρα ή τυχαίες αναρτήσεις στο Facebook – τελικά οδηγεί σε ρομπότ που ακούγονται ανθρώπου που αντικατοπτρίζουν τις καλές και τις κακές πλευρές όλης αυτής της λάσπης.

Chatbots όπως το Bing έχουν ξεκινήσει έναν μεγάλο νέο αγώνα εξοπλισμών AI μεταξύ μεγάλων εταιρειών τεχνολογίας. Ενώ η Google, η Microsoft, η Amazon και το Facebook επενδύουν στην τεχνολογία AI εδώ και χρόνια, ως επί το πλείστον εργάζονται για να βελτιώσουν τα υπάρχοντα προϊόντα, όπως αλγόριθμους αναζήτησης ή συστάσεων περιεχομένου. Αλλά όταν η start-up OpenAI άρχισε να δημοσιοποιεί τα «δημιουργικά» εργαλεία τεχνητής νοημοσύνης της – συμπεριλαμβανομένου του δημοφιλούς chatbot ChatGPT – οδήγησε τους ανταγωνιστές στο βουρτσίστε μακριά παλαιότερη, σχετικά προσεκτική προσέγγισή τους στην τεχνολογία.

Οι ανθρώπινες αντιδράσεις του Bing αντικατοπτρίζουν τα δεδομένα εκπαίδευσής του, τα οποία περιελάμβαναν τεράστιο όγκο διαδικτυακών συνομιλιών, δήλωσε ο Timnit Gebru, ιδρυτής του μη κερδοσκοπικού Ινστιτούτου Έρευνας Τεχνητής Νοημοσύνης (Distributed AI Research Institute). Η δημιουργία κειμένου που πιθανότατα γράφτηκε από άνθρωπο είναι ακριβώς αυτό που εκπαιδεύτηκε το ChatGPT, είπε ο Gebru, που απολύθηκε το 2020 ως συμπρόεδρος της ομάδας ηθικής τεχνητής νοημοσύνης της Google μετά τη δημοσίευση ενός άρθρου που προειδοποιεί για τις πιθανές βλάβες των μεγάλων γλωσσικών μοντέλων.

Συνέκρινε τις συνομιλητικές του απαντήσεις με την πρόσφατη κυκλοφορία του Galactica από τον Μέτα, ενός μοντέλου τεχνητής νοημοσύνης που έχει εκπαιδευτεί να γράφει άρθρα με επιστημονικό ήχο. Η Meta απενεργοποίησε το εργαλείο αφού οι χρήστες ανακάλυψαν ότι η Galactica δημιουργούσε έγκυρο κείμενο σχετικά με τα οφέλη της κατανάλωσης ποτηριού, γραμμένο σε ακαδημαϊκή γλώσσα με εισαγωγικά.

Το Bing chat δεν έχει ακόμη κυκλοφορήσει ευρέως, αλλά η Microsoft έχει δηλώσει ότι σχεδιάζει να κυκλοφορήσει ευρέως τις επόμενες εβδομάδες. Διαφημίζει έντονα το εργαλείο, με ένα στέλεχος της Microsoft να αναρτά στο Twitter ότι υπάρχουν «πολλά εκατομμύρια» άνθρωποι στη λίστα αναμονής. Μετά την κυκλοφορία του προϊόντος, οι αναλυτές της Wall Street το χαιρέτησαν ως σημαντική ανακάλυψη και μάλιστα πρότειναν ότι θα μπορούσε να κλέψει το μερίδιο αγοράς της Google στις μηχανές αναζήτησης.

Αλλά οι πρόσφατες σκοτεινές στροφές που έχει κάνει το bot εγείρουν ερωτήματα σχετικά με το εάν το bot θα πρέπει να αποσυρθεί εντελώς.

«Το Bing chat δυσφημεί πραγματικούς, ζωντανούς ανθρώπους. Συχνά προκαλεί στους χρήστες να αισθάνονται βαθιά συναισθηματικά διαταραγμένοι. Ωρες ωρες υποδηλώνει ότι οι χρήστες πληγώνουν τους άλλους», είπε ο Arvind Narayanan, καθηγητής επιστήμης υπολογιστών στο Πανεπιστήμιο του Πρίνστον που μελετά την τεχνητή νοημοσύνη. “Είναι ανεύθυνο το γεγονός ότι η Microsoft το κυκλοφόρησε τόσο γρήγορα και θα ήταν πολύ χειρότερο αν το έκανε διαθέσιμο σε όλους χωρίς να διορθώσει αυτά τα ζητήματα.”

Το 2016, η Microsoft αφαίρεσε ένα chatbot που ονομάζεται “Tay” που βασίστηκε σε διαφορετικό τύπο τεχνολογίας AI, αφού οι χρήστες του ζήτησαν να ξεκινήσει διάδοση του ρατσισμού και άρνηση του ολοκαυτώματος.

Η επικεφαλής επικοινωνίας της Microsoft, Caitlin Roulston, δήλωσε σε δήλωση αυτή την εβδομάδα ότι χιλιάδες άνθρωποι έχουν χρησιμοποιήσει το νέο Bing και έχουν δώσει σχόλια, «επιτρέποντας στο μοντέλο να μάθει και να κάνει ήδη πολλές βελτιώσεις».

Ωστόσο, υπάρχει ένα οικονομικό κίνητρο για τις εταιρείες να εφαρμόσουν την τεχνολογία πριν μετριάσουν την πιθανή ζημιά: να βρουν νέες περιπτώσεις χρήσης για το τι μπορούν να κάνουν τα μοντέλα τους.

Στο συνέδριο της Τρίτης για τη γενετική τεχνητή νοημοσύνη, ο πρώην αντιπρόεδρος έρευνας του OpenAI, Dario Amodei, είπε στη σκηνή ότι ενώ η εταιρεία εκπαίδευε το μοντέλο γλώσσας GPT-3 μεγάλης κλίμακας, βρήκε απροσδόκητες ευκαιρίες, όπως να μιλάει ιταλικά ή να κωδικοποιεί σε Python. Όταν το κυκλοφόρησαν δημόσια, έμαθαν από ένα tweet χρήστη ότι θα μπορούσε επίσης να δημιουργήσει ιστότοπους σε JavaScript.

«Πρέπει να το αναπτύξεις σε ένα εκατομμύριο ανθρώπους πριν ανακαλύψεις μερικά από τα πράγματα που μπορεί να κάνει», είπε ο Amodei, ο οποίος έφυγε από το OpenAI για να συνιδρυθεί η start-up τεχνητής νοημοσύνης Anthropic, η οποία πρόσφατα έλαβε χρηματοδότηση από την Google.

«Υπάρχει μια ανησυχία ότι ρε, μπορώ να φτιάξω ένα μοντέλο που είναι πολύ καλό στις επιθέσεις στον κυβερνοχώρο ή κάτι τέτοιο και να μην ξέρω καν ότι το έχω κάνει», πρόσθεσε.

Το Microsoft Bing βασίζεται στην τεχνολογία που αναπτύχθηκε με το OpenAI στην οποία έχει επενδύσει η Microsoft.

Η Microsoft έχει δημοσιεύσει αρκετά άρθρα σχετικά με την προσέγγισή της στην υπεύθυνη τεχνητή νοημοσύνη, συμπεριλαμβανομένου του διευθύνοντος συμβούλου της Μπραντ Σμιθ νωρίτερα αυτόν τον μήνα. «Πρέπει να μπούμε σε αυτή τη νέα εποχή με ενθουσιασμό για υποσχέσεις, ενώ θα έχουμε τα μάτια μας ορθάνοιχτα και αποφασιστικά στην αντιμετώπιση των αναπόφευκτων παγίδων που μας περιμένουν επίσης». έγραψε.

Ο τρόπος με τον οποίο λειτουργούν τα μεγάλα γλωσσικά μοντέλα τα καθιστά δύσκολο να κατανοηθούν πλήρως, ακόμη και από τους ανθρώπους που τα κατασκεύασαν. Οι εταιρείες Big Tech που βρίσκονται πίσω τους εμπλέκονται επίσης σε σκληρό ανταγωνισμό για αυτό που θεωρούν ως το επόμενο σύνορο της εξαιρετικά κερδοφόρας τεχνολογίας, προσθέτοντας άλλο ένα στρώμα μυστικότητας.

Το πρόβλημα είναι ότι αυτές οι τεχνολογίες είναι μαύρα κουτιά, είπε ο Marcus, και κανείς δεν ξέρει ακριβώς πώς να βάλει τα σωστά και επαρκή προστατευτικά εμπόδια πάνω τους. «Βασικά χρησιμοποιούν το κοινό ως υποκείμενα σε ένα πείραμα του οποίου δεν γνωρίζουν πραγματικά το αποτέλεσμα», είπε ο Marcus. «Μπορούν αυτά τα πράγματα να επηρεάσουν τις ζωές των ανθρώπων; Σίγουρα θα μπορούσαν. Έχει αποδειχθεί καλά; Φυσικά και όχι.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *