Γνώμη: Η Επιδημία της Ψευδαίσθησης της Τεχνητής Νοημοσύνης, μια Κρίση για την Οποία Δεν Είμαστε Έτοιμοι

Image generated with DALL·E through ChatGPT

Γνώμη: Η Επιδημία της Ψευδαίσθησης της Τεχνητής Νοημοσύνης, μια Κρίση για την Οποία Δεν Είμαστε Έτοιμοι

Χρόνος ανάγνωσης: 8 λεπτό

Παρά τις συνεχείς υποσχέσεις για μείωση των εικονικών παραλλήλων της Τεχνητής Νοημοσύνης, κύρια εργαλεία ΤΝ—από το ChatGPT στο Perplexity, στο Gemini, και την Apple Intelligence—συνεχίζουν να παράγουν λανθασμένες πληροφορίες, συχνά με συναγερτικές συνέπειες. Ειδικοί, συμπεριλαμβανομένων εκείνων που προειδοποιούν για τους κινδύνους της ΤΝ, έχουν πέσει θύματα σε παραχαράξεις περιεχομένου, και ακόμη και προηγμένα εργαλεία όπως το Deep Research παρασκευάζουν αναφορές. Η αλήθεια φαίνεται να παραμένει στα ανθρώπινα χέρια

Τα chatbots έχουν βελτιωθεί καθόλη τη διάρκεια των ετών – πολύ περισσότερο. Ωστόσο, υπάρχει ένα θέμα που δεν έχει λυθεί ακόμη και είναι γνωστό ως «εικονικές παραλλήλως».

Οι αγαπημένοι μας chatbots μας παρέχουν λαμπρές απαντήσεις στις ερωτήσεις μας με την αποφασιστικότητα και την εξουσία ενός Yoda από την επιστημονική φαντασία, ακόμη και όταν κάνουν τρομερά λάθη. Και τους πιστεύουμε. Μερικές φορές τυφλά.

Πολλοί επιστήμονες, ειδικοί και ακόμη και οι ίδιοι οι προγραμματιστές των chatbot εχουν επισημάνει για χρόνια τις ψευδαισθήσεις. Ωστόσο, ενώ η υιοθέτηση τους έχει αυξηθεί ραγδαία – η OpenAI ανέφερε 400 εκατομμύρια εβδομαδιαίους ενεργούς χρήστες μόλις πριν από λίγες ημέρες – η γνώση πάνω στην τεχνητή νοημοσύνη δεν έχει εξελιχθεί με τον ίδιο ρυθμό.

Πρόσφατες μελέτες, δικαστικές υποθέσεις και δραματικά γεγονότα συνεχίζουν να δείχνουν ότι η παραπληροφόρηση είναι ακόμη πιο επικίνδυνη από ό,τι συνειδητοποιούμε.

Είναι Χειρότερο Από Ό,τι Νομίζουμε

Αρχικά, το να εντοπίζουμε μεγάλα λάθη που παρήγαγε η τεχνητή νοημοσύνη ήταν αρκετά αστείο – όπως αυτές τις ντροπιαστικές επισκοπήσεις της Τεχνητής Νοημοσύνης που δημιούργησε το Gemini προτείνοντας στους χρήστες να προσθέσουν «μη τοξική κόλλα στη σάλτσα» για μια συνταγή πίτσας ή προτείνοντας να φάνε «ένα μικρό βράχο την ημέρα» το περασμένο έτος. Ωστόσο, καθώς ανακτούμε την εμπιστοσύνη μας στην τεχνητή νοημοσύνη, η κατάσταση έχει κλιμακωθεί, γίνοντας ολοένα και πιο ανησυχητική.

Τον Δεκέμβριο, είδαμε το εργαλείο AI της Apple να δημιουργεί επικεφαλίδες «συνοψίζοντας» τα νέα και να παράγει ψεύτικες και παραπλανητικές πληροφορίες, όπως τον ισχυρισμό ότι η BBC είχε ανακοινώσει ότι ο Luigi Mangione είχε αυτοκτονήσει. Μετά από αυτό το περιστατικό, η δημοσίευση κατέθεσε μια καταγγελία εναντίον της Apple και άρχισε να ερευνά την ακρίβεια της γεννήτριας AI κατά την ανάλυση περιεχομένου ειδήσεων.

Τα ευρήματα της BBC, που δημοσιεύτηκαν μόλις πριν από λίγες ημέρες, αποκάλυψαν ανησυχητικά στατιστικά στοιχεία: το 51% των απαντήσεων που παρείχαν τα δημοφιλή AI Chatbots περιείχαν σημαντικά θέματα, το 13% των αποσπασμάτων που παρείχαν τα μοντέλα ήταν πλήρως επινοημένα, και το 19% των δεδομένων ήταν λανθασμένα.

Οι εφήβοι είναι ανάμεσα στους πλέον επηρεαζόμενους πληθυσμούς, καθώς συχνά δυσκολεύονται να διακρίνουν τα ψευδή νέα από τα πραγματικά και μπορούν εύκολα να επηρεαστούν από περιεχόμενο που δημιουργήθηκε από τεχνητή νοημοσύνη. Μια μελέτη που δημοσιεύτηκε τον Ιανουάριο έδειξε ότι το 35% των εφήβων έχει παραπλανηθεί από ψευδές περιεχόμενο που δημιουργήθηκε από μοντέλα ΤΝ, ενώ το 22% μοιράστηκε τις ψευδείς πληροφορίες.

Αλλά δεν είναι μόνο οι έφηβοι και οι απρόσεκτοι άνθρωποι που πέφτουν θύματα αυτών των ψευδαισθήσεων. Και δεν είναι μόνο το Gemini ή το Apple Intelligence.

Κανένα Μοντέλο ΤΝ Δεν Είναι Ασφαλές, Καμία Βιομηχανία Δεν Είναι Ασφαλής

Η έρευνα που διεξήγαγε η BBC επιβεβαιώνει ένα ακόμη ζήτημα: όλα τα μοντέλα AI παραληρούν. Οι ειδικοί εξέτασαν τα δημοφιλέστερα μοντέλα, τα ChatGPT, Gemini, Perplexity και Copilot. Κανένα μοντέλο AI δεν είναι απαλλαγμένο από σφάλματα. Η Anthropic έχει μια σελίδα που αντιμετωπίζει αυτό το ζήτημα, προτείνοντας ιδέες για το πώς να μειώσουμε τις παραλήρησης.

“Ακόμη και τα πιο προηγμένα μοντέλα γλώσσας, όπως το Claude, μπορούν μερικές φορές να δημιουργήσουν κείμενο που είναι επιστημονικά ανακριβές ή ασυνεπές με το δοθέν πλαίσιο,» δηλώνει το έγγραφο. Άλλες εταιρείες AI έχουν μοιραστεί παρόμοιες σελίδες με συμβουλές και τεχνάσματα για να αποφύγουμε το ψεύτικο περιεχόμενο, αλλά δεν είναι τόσο εύκολο και είναι ένα ανεπίλυτο πρόβλημα για αρκετό καιρό.

Πίσω στο 2023, η OpenAI ανακοίνωσε ότι εργαζόταν σε νέους καινοτόμους τρόπους για να απαλλαγεί από τις παραισθήσεις. Προειδοποίηση για spoilers: είναι ακόμη ένα τεράστιο πρόβλημα σήμερα.

Τον Ιανουάριο του 2024 – πριν από περισσότερο από ένα έτος – ο CEO Aravind Srinivas δήλωσε ότι οι παραισθήσεις της Perplexity συνέβαιναν κυρίως σε απλώριστους λογαριασμούς. «Οι περισσότερες από τις καταγγελίες προέρχονται από την δωρεάν έκδοση του προϊόντος», εξήγησε ο Srinivas, προσθέτοντας ότι ήδη προσέφεραν περισσότερες GPUs για να διορθώσουν το πρόβλημα. Ωστόσο, τον Οκτώβριο, το New York Post και το Dow Jones είχαν καταθέσει μήνυση εναντίον της Perplexity – καθώς το μοντέλο τους συνέχιζε να αποδίδει ψευδείς ειδήσεις στις δημοσιεύσεις τους -, και το εργαλείο AI που αναπτύχθηκε από τη startup για τις εκλογές των ΗΠΑ δοκιμάστηκε από ειδικούς που αποκάλυψαν ασυνέπειες, ανακριβείς συνόψεις και παραισθήσεις.

Η Νόσος των Παραισθήσεων Φτάνει σε Επιστημονικά και Ακαδημαϊκά Επίπεδα

Ένας από τους μεγαλύτερους προβληματισμούς αυτή τη στιγμή είναι ότι ακόμη και οι ειδικοί – συμπεριλαμβανομένων αυτών που προειδοποιούν για τους κινδύνους και τους κινδύνους της AI – έχουν πέσει στην παγίδα αυτών των εργαλείων πρόθυμων για αυταπάτες.

Τον Δεκέμβριο, ο καθηγητής του Stanford και ειδικός στην τεχνολογία και την παραπληροφόρηση Jeff Hancock κατηγορήθηκε ότι χρησιμοποίησε AI για να συντάξει μια δήλωση δικαστηρίου. Ο Hancock κατέθεσε μια δήλωση 12 σελίδων υπερασπιζόμενος τον νόμο της πολιτείας του 2023 που εγκληματοποιεί τη χρήση deepfakes, συμπεριλαμβανομένων 15 παραπομπών. Ωστόσο, δύο από αυτές τις παραπομπές δεν ήταν δυνατό να βρεθούν πουθενά – επειδή το ChatGPT, το προτιμώμενο AI εργαλείο του ειδικού στην παραπληροφόρηση, τις είχε απλώς συνθέσει.

Η Hancock – προγραμματισμένη να διδάξει «Αλήθεια, Εμπιστοσύνη και Τεχνολογία» αυτή τη χρονιά – εξήγησε ότι χρησιμοποίησε το chatbot της OpenAI για να οργανώσει τις παραπομπές της, πράγμα που οδήγησε στις απεικόνισης. Η ερευνήτρια ζήτησε συγγνώμη – και παρέμεινε πιστή στα ουσιαστικά σημεία της δήλωσής της -, διδάσκοντας μας όλους το πολύτιμο μάθημα ότι ακόμη και οι ειδικοί και οι πιο ενημερωμένοι για τους κινδύνους της AI είναι ευάλωτοι σε αυτό.

Ο καθηγητής Hancock δεν ήταν ο μόνος που υπέβαλε έγγραφα που περιείχαν παραχαράξεις που δημιούργησε η AI στο δικαστήριο, φυσικά. Ένα άλλο περιστατικό που αφορούσε μια αγωγή εναντίον της Walmart πρόσφατα έγινε viral επειδή οι δικηγόροι χρησιμοποίησαν ψεύτικες υποθέσεις που δημιούργησε η AI για να κατασκευάσουν το επιχείρημά τους. Στην πραγματικότητα, το ζήτημα έχει γίνει τόσο συχνό στα δικαστήρια των ΗΠΑ που το δικηγορικό γραφείο Morgan & Morgan πρόσφατα έστειλε emails στους περισσότερους από τους 1.000 δικηγόρους του, προειδοποιώντας τους για τους κινδύνους της χρήσης παραπομπών που δημιούργησε η AI, και η Αμερικανική Ένωση Δικηγόρων υπενθύμισε στα 400,000 μέλη της τους κανόνες δεοντολογίας των δικηγόρων – συμπεριλαμβανομένων των πληροφοριών που δημιουργούνται από AI.

Βαθιά Έρευνα Επίσης

Ένα από τα πιο δημοφιλή εργαλεία AI αυτή τη στιγμή είναι το «Deep Research», που έχει σχεδιαστεί για ειδικούς και επιστήμονες που αναζητούν πιο πολύπλοκα αποτελέσματα στην έρευνά τους. Οι ψευδαισθήσεις δεν είναι απών είδος από αυτό το εργαλείο, παρόλο που η αρχική έκδοση του OpenAI απαιτούσε συνδρομή Pro $200 για πρόσβαση.

Οι χρήστες στο Reddit έχουν εκφράσει ανησυχίες σχετικά με αυτό το θέμα, αναφέροντας ότι όλα τα δημοφιλή μοντέλα που περιλαμβάνουν εργαλεία βαθιάς έρευνας – Perplexity, ChatGPT και DeepSeek – έχουν υποστεί ψευδαισθήσεις. Ερευνητές και ειδικοί στην AI έχουν επίσης μοιραστεί ανησυχητικά αποτελέσματα σε άλλες πλατφόρμες κοινωνικών μέσων όπως το X.

«Το εργαλείο παρήγαγε μια όμορφα γραμμένη και επιχειρηματολογημένη έκθεση», έγραψε ένας χρήστης που χρησιμοποίησε το εργαλείο Deep Research της OpenAI για να μελετήσει μαθηματικά που έχουν γίνει από νέους. «Το μόνο πρόβλημα είναι ότι όλα είναι επινοημένα».

«Το Deep Research επινόησε μια σειρά από στατιστικά και αναλύσεις, υποστηρίζοντας ότι συνέλεξε ένα σύνολο δεδομένων χιλιάδων άρθρων, και υποτίθεται ότι συγκέντρωσε πληροφορίες για το έτος γέννησης κάθε συγγραφέα από αξιόπιστες πηγές», μοιράστηκε ένας άλλος. «Κανένα από αυτά δεν είναι αληθινό».

Η Αλήθεια Παραμένει Στα Ανθρώπινα Χέρια

Θα σταματήσουν ποτέ οι chatbots να «υποφέρουν» από οπτασίες; Η αδυναμία της Τεχνητής Νοημοσύνης είναι εμφανής εδώ και χρόνια – την είδαμε σε podcasts όπως το Planet Money όταν δοκίμασαν επεισόδια που δημιουργήθηκαν από AI το 2023, και συνεχίζουμε να την βλέπουμε στα πιο προηγμένα μοντέλα, ακόμη και σε εκείνα που έχουν σχεδιαστεί για αποκλειστική χρήση από ειδικούς και τεχνολογικά επώνυμες κοινότητες.

Ίσως είναι καιρός να αποδεχτούμε ότι αυτό θα παραμείνει ένα πρόβλημα και να κατανοήσουμε ότι πρέπει να αναλάβουμε την ευθύνη για αυτό που δημιουργούμε και μοιραζόμαστε χρησιμοποιώντας εργαλεία AI.

Το γεγονός ότι, παρόλο που φαίνεται σαν ένα καλά γνωστό πρόβλημα, οι ίδιοι οι ειδικοί στους κινδύνους της AI πέφτουν θύματα της πειστικής και επικείμενης συγγραφής της AI, είναι αναμφίβολα ανησυχητικό. Η κατάσταση γίνεται ακόμα πιο πολύπλοκη καθώς η υιοθέτηση συνεχίζει να επιταχύνεται με πλήρη ταχύτητα, ξεπερνώντας την ψηφιακή γραμματιστότητα, ενώ οι αντιφάσεις και οι πλαστογραφημένες παραπομπές πολλαπλασιάζονται.

Οι περιπτώσεις που έχουν αποκαλυφθεί φαντασιώσεις της Τεχνητής Νοημοσύνης φαίνεται να είναι εκείνες στις οποίες το fact-checking είναι κρίσιμο – κάτι που ο Zuckerberg θα έπρεπε να θυμηθεί τώρα που έχει καταργήσει το τμήμα επιβεβαίωσης γεγονότων. Αυτό είναι ιδιαίτερα έντονο στα δικαστήρια, όπου δικηγόροι και δικαστές εργάζονται για να επαληθεύσουν γεγονότα και υποθέσεις, και στα μέσα ενημέρωσης, όπου η ακρίβεια και η επιβεβαίωση πηγών έχουν σημασία.

Αλλά τι γίνεται σε περιπτώσεις όπου κανείς δεν εξετάζει αυτές τις λεπτομέρειες; Τι συμβαίνει στις καθημερινές, πιο προσωπικές καταστάσεις; Αυτή τη στιγμή, εκατομμύρια μαθητές μαθαίνουν απ’ έξω απαντήσεις που δημιούργησε η Τεχνητή Νοημοσύνη για τις σπουδές τους, οι χρήστες ακολουθούν οδηγίες που παρέχει η Τεχνητή Νοημοσύνη για να αντιμετωπίσουν ασθένειες, και άλλοι μαθαίνουν για νέα θέματα, εμπιστευόμενοι πλήρως την τεχνολογία.

Οι συνέπειες αυτής της νέας πραγματικότητας με την οποία βρισκόμαστε αντιμέτωποι είναι αμέτρητες και απρόβλεπτες, και η αλήθεια -για τώρα- βρίσκεται στα χέρια εκείνων που βρίσκουν τον χρόνο να υποβάλλουν ερωτήματα και να επαληθεύουν.

Σας αρέσει το άρθρο;
Βαθμολογήστε το!
Το μίσησα Δεν μου άρεσε Ήταν καλό Αρκετά καλό! Το λάτρεψα!

Είναι χαρά μας που σας αρέσει η δουλειά μας!

Αγαπητοί μας αναγνώστες, θα θέλατε να προσθέσετε μια αξιολόγηση στο Trustpilot; Είναι μια γρήγορη διαδικασία και σημαίνει πάρα πολλά για εμάς. Σας ευχαριστούμε πολύ για την προτίμηση!

Αξιολογήστε μας στο Trustpilot
0 Ψηφίστηκε από 0 Χρήστες
Τίτλος
Σχόλιο
Σας ευχαριστούμε για τα σχόλιά σας
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Αφήστε ένα σχόλιο

Loader
Loader Δείτε περισσότερα...