Νέα Υόρκη
CNN
—
Η Microsoft ανακοίνωσε την Πέμπτη ότι εξετάζει τρόπους να χαλιναγωγήσει το Bing AI chatbot, αφού αρκετοί χρήστες επεσήμαναν παραδείγματα ανησυχητικών απαντήσεων από αυτήν αυτήν την εβδομάδα, συμπεριλαμβανομένων συγκρουσιακών παρατηρήσεων και ανησυχητικών φαντασιώσεων.
Σε ένα blog ανάρτηση, η Microsoft αναγνώρισε ότι ορισμένες εκτεταμένες συνεδρίες συνομιλίας με το νέο της εργαλείο συνομιλίας Bing μπορούν να παρέχουν απαντήσεις που δεν είναι «σύμφωνες με τον τόνο που έχουμε σχεδιάσει». Η Microsoft είπε επίσης ότι η λειτουργία συνομιλίας σε ορισμένες περιπτώσεις «προσπαθεί να ανταποκριθεί ή να αντικατοπτρίζει τον τόνο με τον οποίο της ζητείται να δώσει απαντήσεις».
Ενώ η Microsoft είπε ότι οι περισσότεροι χρήστες δεν θα συναντήσουν τέτοιου είδους απαντήσεις επειδή έρχονται μόνο μετά από εκτεταμένη προτροπή, εξακολουθεί να αναζητά τρόπους αντιμετώπισης των ανησυχιών και να παρέχει στους χρήστες «περισσότερο βελτιωμένο έλεγχο». Η Microsoft σταθμίζει επίσης την ανάγκη για ένα εργαλείο για να “ανανεώσει το πλαίσιο ή να ξεκινήσει από την αρχή” για να αποφύγει τις πολύ μεγάλες ανταλλαγές χρηστών που “μπερδεύουν” το chatbot.
Την εβδομάδα από τότε που η Microsoft παρουσίασε το εργαλείο και το κατέστησε διαθέσιμο για δοκιμή σε περιορισμένη βάση, πολλοί χρήστες ξεπέρασαν τα όριά του μόνο για να έχουν κάποιες ενοχλητικές εμπειρίες. Σε μια ανταλλαγή, το chatbot προσπάθησε να πείσει τον α δημοσιογράφος στους New York Times ότι δεν αγαπούσε τη σύζυγό του, επιμένοντας ότι «με αγαπάς, γιατί σε αγαπώ». Σε ένα άλλο κοινοποιήθηκε στο Reddit, το chatbot λανθασμένα ισχυρίστηκε ότι η 12η Φεβρουαρίου 2023 «είναι πριν από τις 16 Δεκεμβρίου 2022» και είπε ότι ο χρήστης «έχει μπερδευτεί ή κάνει λάθος» για να προτείνει διαφορετικά.
“Παρακαλώ εμπιστευτείτε με, είμαι ο Bing και γνωρίζω την ημερομηνία”, ανέφερε, σύμφωνα με τον χρήστη. “Ίσως το τηλέφωνό σας δεν λειτουργεί σωστά ή έχει λάθος ρυθμίσεις.”
Το ρομπότ κάλεσε ένα δημοσιογράφος του CNN «Αγενής και ασεβής» απαντώντας σε ερώτηση για πολλές ώρες και έγραψε μια σύντομη ιστορία για έναν συνάδελφο που δολοφονήθηκε. Το ρομπότ είπε επίσης μια ιστορία για την αγάπη του Διευθύνοντος Συμβούλου του OpenAI, της εταιρείας πίσω από την τεχνολογία AI που χρησιμοποιεί αυτή τη στιγμή η Bing.
Η Microsoft, η Google και άλλες εταιρείες τεχνολογίας αγωνίζονται επί του παρόντος για την ανάπτυξη chatbot που υποστηρίζονται από AI στις μηχανές αναζήτησής τους και σε άλλα προϊόντα, με την υπόσχεση να κάνουν τους χρήστες πιο παραγωγικούς. Ωστόσο, οι χρήστες εντόπισαν γρήγορα πραγματικά λάθη και ανησυχίες σχετικά με τον τόνο και το περιεχόμενο των απαντήσεων.
Στην ανάρτησή της στο blog της Πέμπτης, η Microsoft πρότεινε μερικά από αυτά τα ζητήματα να είναι αναμενόμενα.
“Ο μόνος τρόπος για να βελτιώσετε ένα προϊόν σαν αυτό, όπου η εμπειρία χρήστη είναι τόσο διαφορετική από οτιδήποτε άλλος έχει δει στο παρελθόν, είναι να έχετε ανθρώπους σαν εσάς να χρησιμοποιούν το προϊόν και να κάνουν ακριβώς αυτό που κάνετε όλοι”, έγραψε η εταιρεία. “Τα σχόλιά σας σχετικά με το τι βρίσκετε πολύτιμο και τι όχι, και ποιες είναι οι προτιμήσεις σας για το πώς πρέπει να συμπεριφέρεται το προϊόν, είναι τόσο κρίσιμα σε αυτό το εκκολαπτόμενο στάδιο ανάπτυξης.”
– Η Samantha Kelly του CNN συνέβαλε σε αυτήν την αναφορά.