NAFPLIOPRESS.GR
Image default
ΕΠΙΚΑΙΡΟΤΗΤΑΤΕΧΝΟΛΟΓΙΑ

Το πρόβλημα με τα εργαλεία τεχνητής νοημοσύνης είναι ότι συχνά…επινοούν απαντήσεις

Εργαλεία τεχνητής νοημοσύνης (ΤΝ), όπως το ChatGPT, μας έχουν μαγέψει με την ικανότητά τους να παράγουν έγκυρες, ρεαλιστικές και «ανθρώπινες» απαντήσεις σε φαινομενικά οποιαδήποτε ερώτησή μας.

Όμως, καθώς όλο και περισσότεροι άνθρωποι στρέφονται στη συγκεκριμένη τεχνολογία για πράγματα όπως η μελέτη για το σχολείο, η έρευνα για μια εργασία ή ερωτήματα σχετικά με την υγεία, μία από τις μεγαλύτερες «παγίδες» της γίνεται όλο και πιο εμφανής: τα μοντέλα ΤΝ συχνά… αυτοσχεδιάζουν, απλά επινοώντας απαντήσεις.

Oι ερευνητές έχουν καταλήξει να αναφέρονται σε αυτή την τάση των μοντέλων ΤΝ να παρέχουν ανακριβείς πληροφορίες ως «ψευδαισθήσεις» ή «συγχύσεις», όπως δήλωσε ο επικεφαλής ΤΝ της Meta σε ένα tweet. Ορισμένοι χρήστες των μέσων κοινωνικής δικτύωσης, εν τω μεταξύ, απλά χαρακτηρίζουν τα chatbots «παθολογικούς ψεύτες».

Αλλά όλοι αυτοί οι χαρακτηρισμοί προέρχονται από την τάση μας να ανθρωπομορφοποιούμε τις ενέργειες των μηχανών, σύμφωνα με τον Σουρές Βενκατασουμπραμανιάν, καθηγητή στο Πανεπιστήμιο Brown, ο οποίος βοήθησε στη συν-συγγραφή του προσχεδίου του Λευκού Οίκου για ένα νομοσχέδιο για τα ανθρώπινα δικαιώματα στην εποχή της τεχνητής νοημοσύνης.

Τα μεγάλα γλωσσικά μοντέλα – η τεχνολογία πίσω από τα εργαλεία ΤΝ όπως το ChatGPT – απλά εκπαιδεύονται για να «παράγουν μια απάντηση που να ακούγεται εύλογη» στις προτροπές των χρηστών.

«Υπό αυτή την έννοια, οποιαδήποτε απάντηση που ακούγεται εύλογη, είτε είναι ακριβής ή όχι, πραγματική ή επινοημένη, είναι μια λογική απάντηση. Και αυτό είναι που παράγουν», λέει ο Βενκατασουμπραμανιάν.

Τι σημαίνει ψευδαίσθηση τεχνητής νοημοσύνης;
Με απλά λόγια, ο όρος ψευδαίσθηση χρησιμοποιείται όταν ένα μοντέλο ΤΝ «αρχίζει να επινοεί πράγματα – πράγματα που δεν συνάδουν με την πραγματικότητα», σύμφωνα με τον Τζέβιν Γουέστ, καθηγητή στο Πανεπιστήμιο της Ουάσινγκτον και συνιδρυτή του Κέντρου για ένα Ενημερωμένο Κοινό.

«Αλλά το κάνει με πραγματική αυτοπεποίθηση», προσθέτει ο Γουέστ, «και το κάνει με την ίδια αυτοπεποίθηση που θα το έκανε αν του θέτατε μια πολύ απλή ερώτηση όπως “Ποια είναι η πρωτεύουσα των Ηνωμένων Πολιτειών;”».

Αυτό σημαίνει ότι μπορεί να είναι δύσκολο για τους χρήστες να διακρίνουν τι είναι αλήθεια και τι όχι, αν ρωτούν ένα chatbot κάτι στο οποίο δεν γνωρίζουν ήδη την απάντηση, επισημαίνει ο Γουέστ.

«Εμπιστεύομαι τις απαντήσεις που δίνει το ChatGPT λιγότερο από οποιονδήποτε στον κόσμο», δήλωσε πρόσφατα αστειευόμενος ο CEO της OpenAI, Σαμ Άλτμαν
AP Photo/Jon Gambrell
Χαρακτηριστικό είναι το παράδειγμα ενός βετεράνου δικηγόρου της Νέας Υόρκης που τον περασμένο Μάιο βρέθηκε σε δύσκολη θέση όταν χρησιμοποίησε το ChatGPT για νομική έρευνα και υπέβαλε μια αναφορά που περιλάμβανε έξι ανύπαρκτες υποθέσεις τις οποίες το chatbot φαίνεται ότι απλώς επινόησε.

Ένας τομέας στον οποίο αυτές τοι ψευδαισθήσεις της ΤΝ αποδεικνύονται χρήσιμες, είναι οι τέχνες. Για παράδειγμα, όταν ο χρήστης ζητάει από το ChatGPT να τον βοηθήσει να γράψει ποίηση ή στίχους τραγουδιών.

Ταυτόχρονα είναι προφανής ο κίνδυνος όταν οι άνθρωποι στρέφονται σε αυτή την τεχνολογία για να αναζητήσουν απαντήσεις που θα μπορούσαν να επηρεάσουν την υγεία τους, την εκλογική τους συμπεριφορά και άλλα δυνητικά ευαίσθητα θέματα, τονίζει ο Γουέστ.

Μπορεί να διορθωθεί το πρόβλημα;
Το Bard της Google και το ChatGPT της OpenAI επιθυμούν να είναι από την αρχή ξεκάθαρα με τους χρήστες τους, επισημαίνοντας ότι μπορεί να παράγουν ανακριβείς απαντήσεις. Και οι εταιρείες έχουν δηλώσει ότι εργάζονται πάνω σε λύσεις.

Νωρίτερα φέτος, ο διευθύνων σύμβουλος της Google Σουντάρ Πιτσάι δήλωσε σε συνέντευξή του στην εκπομπή «60 Minutes» του CBS ότι «κανείς στον τομέα δεν έχει λύσει ακόμη τα προβλήματα ψευδαισθήσεων» και «όλα τα μοντέλα έχουν αυτό το πρόβλημα». Σχετικά με το αν πρόκειται για πρόβλημα που μπορεί να επιλυθεί, ο Πιτσάι δήλωσε: «Είναι ένα θέμα έντονης συζήτησης. Νομίζω ότι θα σημειώσουμε πρόοδο».

Και ο Σαμ Άλτμαν, διευθύνων σύμβουλος της OpenAI, μιλώντας τον περασμένο Ιούνιο στο Ινστιτούτο Τεχνολογίας Πληροφοριών Indraprastha της Ινδίας, έκανε μια τεχνολογική πρόβλεψη λέγοντας ότι θα χρειαστούν ενάμιση ή δύο χρόνια για να «φτάσουμε το πρόβλημα της ψευδαίσθησης σε ένα πολύ, πολύ καλύτερο σημείο».

«Υπάρχει μια ισορροπία μεταξύ της δημιουργικότητας και της τέλειας ακρίβειας», πρόσθεσε. «Και το μοντέλο θα πρέπει να μάθει πότε θέλετε το ένα και πότε το άλλο».

ΔΙΑΒΑΣΤΕ ΠΕΡΙΣΣΟΤΕΡΑ

Περιφέρεια Πελοποννήσου: Στις 8 Δεκεμβρίου η παρουσίαση της έρευνας για τον τουρισμό στην Αργολίδα

admin

Πυροβολισμοί σε νυχτερινό κέντρο – Νεκρός ένας 21χρονος, σοβαρά τραυματισμένος ένας 23χρονος

takis takis

NAΥΠΛΙΟ: Φωτιά εν κινήσει σε αυτοκίνητο ΒΙΝΤΕΟ

takis takis

Ναύπλιο: Κατάργηση του ΔΟΠΠΑΤ και του ΔΟΚΟΙΠΑΝ – Πως θα ασκούνται οι αρμοδιότητες τους

admin

Αργολίδα: Σε 20 συλλήψεις προχώρησε η αστυνομία

admin

35χρονος στο Ναύπλιο συνελήφθη με κάνναβη στην κατοχή του

admin

On this website we use first or third-party tools that store small files (<i>cookie</i>) on your device. Cookies are normally used to allow the site to run properly (<i>technical cookies</i>), to generate navigation usage reports (<i>statistics cookies</i>) and to suitable advertise our services/products (<i>profiling cookies</i>). We can directly use technical cookies, but <u>you have the right to choose whether or not to enable statistical and profiling cookies</u>. <b>Enabling these cookies, you help us to offer you a better experience</b>.