Home Επιχειρήσεις ChatGPT – Εύγλωττο ρομπότ ή μηχανή παραπληροφόρησης?

ChatGPT – Εύγλωττο ρομπότ ή μηχανή παραπληροφόρησης?

0
57

Τα chatbot αντικαθιστούν τους ανθρώπους στο τηλεφωνικό κέντρο, αλλά δεν είναι τόσο καλά στο να απαντούν σε πιο περίπλοκες ερωτήσεις πελατών. Αυτό μπορεί να αλλάξει σύντομα εάν πραγματοποιηθεί η κυκλοφορία του ChatGPT. Το πρόγραμμα αναζητά τεράστιες ποσότητες πληροφοριών για να δημιουργήσει κείμενο με φυσικό ήχο με βάση ερωτήματα ή προτροπές. Μπορεί να γράψει και να διορθώσει κώδικα σε πολλές γλώσσες προγραμματισμού και να δημιουργήσει ποιήματα και δοκίμια – ακόμη και να μιμείται λογοτεχνικά στυλ. Ορισμένοι ειδικοί το χαιρέτησαν ως μια σημαντική ανακάλυψη στην τεχνητή νοημοσύνη που θα μπορούσε να αντικαταστήσει τον άνθρωπο σε πολλά καθήκοντα και ενδεχομένως να διαταράξει μεγάλες εταιρείες όπως η Google. Άλλοι προειδοποιούν ότι εργαλεία όπως το ChatGPT θα μπορούσαν να πλημμυρίσουν τον ιστό με έξυπνη παραπληροφόρηση.

Αναπτύχθηκε από το ερευνητικό εργαστήριο OpenAI με έδρα το Σαν Φρανσίσκο, το οποίο συνιδρύθηκε από τον προγραμματιστή λογισμικού και επιχειρηματία Sam Altman, τον Elon Musk και άλλους πλούσιους επενδυτές της Silicon Valley το 2015 για την ανάπτυξη τεχνολογίας AI που «ωφελεί όλη την ανθρωπότητα». Το OpenAI έχει επίσης αναπτύξει λογισμικό που μπορεί να νικήσει τους ανθρώπους στα βιντεοπαιχνίδια και ένα εργαλείο γνωστό ως Dall-E που μπορεί να δημιουργήσει εικόνες που κυμαίνονται από φωτορεαλιστικές έως φανταστικές με βάση περιγραφές κειμένου. Το ChatGPT είναι η πιο πρόσφατη έκδοση του GPT (Generative Pre-Trained Transformer), μιας οικογένειας προγραμμάτων AI δημιουργίας κειμένου. Προς το παρόν, μπορεί να χρησιμοποιηθεί ως “προεπισκόπηση έρευνας” στον ιστότοπο OpenAI, αλλά η εταιρεία θέλει να βρει τρόπους για τη δημιουργία εσόδων από το εργαλείο.

Στους επενδυτές του OpenAI περιλαμβάνονται η Microsoft Corp., η οποία επένδυσε 1 δισεκατομμύριο δολάρια το 2019, το φιλανθρωπικό ίδρυμα του συνιδρυτή του LinkedIn, Reid Hoffman, και η Khosla Ventures. Αν και ο Μασκ ήταν συνιδρυτής και πρώτος δωρητής στον μη κερδοσκοπικό οργανισμό, τερμάτισε τη συμμετοχή του το 2018 και δεν έχει κανένα οικονομικό μερίδιο, είπε η OpenAI. Το OpenAI μετατράπηκε το 2019 για να γίνει μια κερδοσκοπική οντότητα, αλλά έχει μια ασυνήθιστη οικονομική δομή – η απόδοση της επένδυσης είναι περιορισμένη για τους επενδυτές και τους υπαλλήλους και τυχόν κέρδη πέρα ​​από αυτό επιστρέφουν στον αρχικό μη κερδοσκοπικό οργανισμό.

Τα εργαλεία GPT μπορούν να διαβάσουν και να αναλύσουν κομμάτια κειμένου και να δημιουργήσουν προτάσεις που είναι παρόμοιες με τον τρόπο που μιλάνε και γράφουν οι άνθρωποι. Εκπαιδεύονται σε μια διαδικασία που ονομάζεται μάθηση χωρίς επίβλεψη, η οποία περιλαμβάνει την εύρεση μοτίβων σε ένα σύνολο δεδομένων χωρίς να τους δίνονται επισημασμένα παραδείγματα ή σαφείς οδηγίες για το τι πρέπει να αναζητήσουν. Η τελευταία έκδοση, το GPT-3, άντλησε κείμενο από όλο τον Ιστό, συμπεριλαμβανομένης της Wikipedia, ειδησεογραφικών τοποθεσιών, βιβλίων και ιστολογίων, προσπαθώντας να κάνει τις απαντήσεις του σχετικές και καλά ενημερωμένες. Το ChatGPT προσθέτει μια διεπαφή συνομιλίας στο GPT-3.

Πάνω από ένα εκατομμύριο άτομα εγγράφηκαν για να χρησιμοποιήσουν το ChatGPT εντός ημερών από την κυκλοφορία του στα τέλη Νοεμβρίου. Τα μέσα κοινωνικής δικτύωσης είναι γεμάτα από χρήστες που δοκιμάζουν διασκεδαστικές, χαμηλού προϋπολογισμού χρήσεις αυτής της τεχνολογίας. Κάποιοι μοιράστηκαν τις απαντήσεις τους σε σκοτεινές ερωτήσεις. Άλλοι λαχταρούσαν περίπλοκα ιστορικά επιχειρήματα, κολεγιακά «δοκίμια», στίχους ποπ τραγουδιών, ποιήματα για κρυπτονομίσματα, σχέδια γευμάτων που καλύπτουν συγκεκριμένες διατροφικές ανάγκες και λύσεις σε προβλήματα προγραμματισμού.

Σε τι άλλο μπορεί να είναι χρήσιμο;

Μια πιθανή περίπτωση χρήσης είναι η αντικατάσταση μιας μηχανής αναζήτησης όπως η Google. Αντί να ψάξετε σε δεκάδες άρθρα για ένα δεδομένο θέμα και να στείλετε πίσω μια γραμμή σχετικού κειμένου από έναν ιστότοπο, μπορεί να δώσει απάντηση στο αίτημά σας. Μπορεί να οδηγήσει την αυτοματοποιημένη εξυπηρέτηση πελατών σε ένα νέο επίπεδο πολυπλοκότητας, παρέχοντάς σας τη σωστή απόκριση την πρώτη φορά, ώστε οι χρήστες να μην χρειάζεται να περιμένουν να μιλήσουν σε έναν άνθρωπο. Θα μπορούσε να επεξεργάζεται αναρτήσεις ιστολογίου και άλλους τύπους περιεχομένου δημοσίων σχέσεων για επιχειρήσεις που διαφορετικά θα απαιτούσαν τη βοήθεια ενός κειμενογράφου.

Ποιοι είναι οι περιορισμοί του;

Οι απαντήσεις που συλλέγονται από το ChatGPT από μεταχειρισμένες πληροφορίες μπορεί να ακούγονται τόσο αξιόπιστες που οι χρήστες μπορεί να υποθέσουν ότι έχουν επαληθεύσει την ακρίβειά τους. Στην πραγματικότητα φτύνει κείμενο που διαβάζεται καλά και ακούγεται έξυπνο, αλλά μπορεί να είναι ελλιπές, προκατειλημμένο, εν μέρει λάθος ή περιστασιακά ανόητο. Ένα σύστημα είναι τόσο καλό όσο τα δεδομένα με τα οποία εκπαιδεύεται. Χωρίς χρήσιμο πλαίσιο, όπως η πηγή των πληροφοριών, και με μερικά τυπογραφικά λάθη και άλλες ατέλειες που συχνά υποδηλώνουν αναξιόπιστο υλικό, το περιεχόμενο μπορεί να αποτελέσει ναρκοπέδιο για όσους δεν γνωρίζουν καλά το θέμα για να εντοπίσουν τη λάθος απάντηση. Αυτό το ζήτημα ώθησε το StackOverflow, έναν ιστότοπο προγραμματισμού υπολογιστών στο φόρουμ συμβουλές κωδικοποίησης, να αποκλείσει τις απαντήσεις ChatGPT επειδή ήταν συχνά ανακριβείς.

Τι γίνεται με τον ηθικό κίνδυνο;

Καθώς η νοημοσύνη των μηχανών γίνεται πιο εξελιγμένη, τόσο γίνεται και η δυνατότητά της για εξαπάτηση και κακία. Το Microsoft AI bot Tay αφαιρέθηκε το 2016, αφού ορισμένοι χρήστες του έμαθαν να κάνει ρατσιστικά και σεξιστικά σχόλια. Ένα άλλο που αναπτύχθηκε από την Meta Platforms Inc. αντιμετώπισε παρόμοια προβλήματα το 2022. Το OpenAI προσπάθησε να εκπαιδεύσει το ChatGPT να απορρίπτει ακατάλληλα αιτήματα, περιορίζοντας την ικανότητά του να διαδίδει ρητορική μίσους και παραπληροφόρηση. Ο Altman, Διευθύνων Σύμβουλος του OpenAI, ενθάρρυνε τους ανθρώπους να απορρίψουν δυσάρεστες ή προσβλητικές απαντήσεις προκειμένου να βελτιώσουν το σύστημα. Ωστόσο, ορισμένοι χρήστες έχουν βρει λύσεις. Στην καρδιά του, το ChatGPT δημιουργεί σειρές λέξεων, αλλά δεν κατανοεί το νόημά τους. Μπορεί να μην λαμβάνει υπόψη τις προκαταλήψεις ως προς το φύλο και τη φυλή που θα παρατηρούσε ένας άνθρωπος σε βιβλία και άλλα κείμενα. Είναι επίσης ένα πιθανό όπλο για εξαπάτηση. Οι ακαδημαϊκοί ανησυχούν ότι οι μαθητές θα προσλάβουν chatbots για να κάνουν την εργασία τους. Οι νομοθέτες μπορεί να πλημμυρίσουν με επιστολές προφανώς από ψηφοφόρους που διαμαρτύρονται για την προτεινόμενη νομοθεσία και δεν έχουν ιδέα εάν είναι γνήσια ή δημιουργούνται από ένα chatbot που χρησιμοποιείται από μια εταιρεία λόμπι.

LEAVE A REPLY

Please enter your comment!
Please enter your name here