
Image generated with DALL·E through ChatGPT
Γνώμη: Οι Απάτες των Deepfake Εκμεταλλεύονται την Αγάπη και την Εμπιστοσύνη Όπως Ποτέ Πριν
Οι απάτες που είναι καθοδηγούμενες από την Τεχνητή Νοημοσύνη αυξάνονται, με τους κυβερνοεγκληματίες να χρησιμοποιούν την τεχνολογία deepfake για να δημιουργούν πειστικά βίντεο και εικόνες που εξαπατούν τα θύματά τους. Από μια Γαλλίδα που πίστευε ότι βοηθούσε τον Brad Pitt, μέχρι ένα θύμα που πείστηκε από ένα υψηλής ποιότητας deepfake, οι γραμμές ανάμεσα στην πραγματικότητα και την απάτη θαμπώνουν. Καθώς τα εργαλεία της Τεχνητής Νοημοσύνης εξελίσσονται, οι κίνδυνοι επίσης αυξάνονται.
Πολλοί από εμάς το είδαμε στις ειδήσεις τον Ιανουάριο: μια Γαλλίδα έχασε πάνω από $850.000 σε απατεώνες διότι πίστευε ότι έδινε τα χρήματα στον Brad Pitt – τον άντρα που νόμιζε ότι ήταν σε σχέση μαζί του για πάνω από ένα χρόνο.
Οι απατείς χρησιμοποίησαν προηγμένη γεννητική τεχνητή νοημοσύνη για να δημιουργήσουν «selfies» και να πλαστογραφήσουν αποδείξεις, πείθοντας το θύμα τους, την Άννα – μια 53χρονη σχεδιάστρια που περνούσε διαζύγιο – για την τραγική ιστορία ενός ψεύτικου Πιτ με επείγοντες ιατρικές ανάγκες. Υποστήριξαν ότι τα κεφάλαιά του είχαν παγώσει λόγω του διαζυγίου του από την Αντζελίνα Τζολί.
Η Άννα πήρε την γενναία – και ριψοκίνδυνη – απόφαση να μοιραστεί την ιστορία της δημοσίως, αντιμετωπίζοντας εκατομμύρια κοροϊδίες, προσβολές και εικονικές επιθέσεις. «Όπως ένας χαζός, πλήρωσα … Κάθε φορά που τον αμφισβήτησα, κατάφερε να διαλύσει τις αμφιβολίες μου,» είπε σε μια Γαλλική εκπομπή στο Youtube, όπως αναφέρθηκε από το BBC. «Απλά με εξαπάτησαν, το παραδέχομαι, και γι’ αυτό προχώρησα, γιατί δεν είμαι η μόνη.»
Δεν είναι. Λίγους μήνες αργότερα, η ισπανική αστυνομία συνέλαβε 5 άτομα που εξαπάτησαν δύο άλλες γυναίκες παριστάνοντας τον Pitt. Πριν από λίγες ημέρες, ένας Κινέζος άνδρας εξαπατήθηκε επίσης πιστεύοντας ότι η online φίλη του χρειαζόταν χρήματα για ιατρικές διαδικασίες και για να χρηματοδοτήσει την επιχείρησή της.
Τα θύματα έλαβαν εξατομικευμένα βίντεο και φωτογραφίες – εικόνες που δεν ήταν διαθέσιμες πουθενά αλλού στο διαδίκτυο – πείθοντάς τους περαιτέρω για τα εξεζητημένα ψέματα των απατεώνων τους.
Μια πρόσφατη έκθεση από την Entrust υποδεικνύει ότι γίνονται προσπάθειες Deepfake κάθε 5 λεπτά. Κάθε μέρα εμφανίζονται νέες περιπτώσεις ανθρώπων που έπεσαν θύματα απάτης με τη χρήση γεννητικής AI, μια ανησυχητική τάση, ειδικά αν λάβουμε υπόψη τις χιλιάδες, ή ακόμα και εκατομμύρια, των ανθρώπων που βρίσκονται βυθισμένοι στα χρέη και την ντροπή και δεν τολμούν να το αναφέρουν στις αρχές, πολύ περισσότερο να το δημοσιοποιήσουν.
Αυξάνονται οι απάτες με DeepFake
Πολλές μελέτες και εκθέσεις έχουν σημάνει συναγερμό για τις αυξανόμενες απάτες και τις κυβερνοεπιθέσεις που ενεργοποιούνται από την AI. Πρόσφατα δεδομένα από το TrustPair’s 2025 Fraud Trends and Insights έδειξαν μια αύξηση κατά 118% ετησίως στην απάτη που δρομολογείται από την AI, όπως αναφέρει ο CFO.
Γεια σας, πρόσφατα, η Hiya, μια αμερικανική εταιρεία που ειδικεύεται σε λύσεις ασφάλειας φωνής και επιδόσεων, μοιράστηκε τα αποτελέσματα μιας έρευνας, αποκαλύπτοντας ότι το 31% των πελατών σε έξι χώρες έλαβε βαθιά ψευδή τηλεφωνήματα το 2024, και το 45% από αυτούς εξαπατήθηκε – το 34% αυτής της ομάδας έχασε χρήματα και το 32% είχε κλαπεί προσωπικές πληροφορίες. Κατά μέσο όρο, οι θύματες χάνουν πάνω από $500 σε κάθε τηλεφωνική απάτη.
Πριν από λίγες μέρες, η εφημερίδα The Guardian αποκάλυψε ότι ένα οργανωμένο δίκτυο στη Γεωργία – στην Ανατολική Ευρώπη – χρησιμοποίησε ψευδείς διαφημίσεις στο Facebook και στο Google για να εξαπατήσει πάνω από 6.000 ανθρώπους σε όλη την Ευρώπη, τον Καναδά και το Ηνωμένο Βασίλειο, κερδίζοντας $35 εκατομμύρια μέσω των επιχειρήσεών τους.
Περίπου 85 καλοπληρωμένοι γεωργιανοί απατεώνες χρησιμοποίησαν δημόσια πρόσωπα όπως τον αγγλικό δημοσιογράφο Martin Lewis, τον συγγραφέα και εξερευνητή Ben Fogle, και τον Elon Musk για τις απάτες τους. Οι απατεώνες προωθούσαν ψεύτικα κρυπτονομίσματα και άλλα σχέδια επενδύσεων, κάνοντας τα θύματα να μεταφέρουν χρήματα μέσω ψηφιακών τραπεζών όπως η Revolut – η οποία πρόσφατα απέκτησε άδεια τραπεζικής λειτουργίας στο Ηνωμένο Βασίλειο.
Προηγμένη ΤΝ, Πιο Σύνθετες Απάτες
Οι κυβερνο-εγκληματίες έχουν χρησιμοποιήσει τη δημιουργική ΤΝ τα τελευταία χρόνια, εκμεταλλευόμενοι εργαλεία όπως το ChatGPT για τη δημιουργία και τη μετάφραση ελκυστικών emails και για την παραγωγή πειστικού περιεχομένου με βάση το κείμενο. Τώρα, καθώς τα εργαλεία ΤΝ εξελίσσονται, η χρήση των εικόνων και των βίντεο που παράγονται από ΤΝ έχει αυξηθεί.
Πριν από λίγες εβδομάδες, η ByteDance παρουσίασε το τελευταίο της εργαλείο βίντεο AI, το OmniHuman-1, ικανό να δημιουργεί ένα από τα πιο ρεαλιστικά deepfakes στην αγορά. Εν τω μεταξύ, περισσότερες εταιρείες AI αναπτύσσουν παρόμοιες τεχνολογίες. Φαίνεται να είναι μόνο θέμα χρόνου πριν αυτά τα εργαλεία χρησιμοποιηθούν επίσης για απάτες.
Ενώ αυτές οι τεχνολογίες μπορούν να χρησιμοποιηθούν «με καλή πίστη» και ακόμη και για να αντιμετωπίσουν την άνοδο των απατών – όπως η Τεχνητή ‘Γιαγιά’ Daisy της O2, σχεδιασμένη να αναπτύσσει διάλογο με απατεώνες σε πραγματικές τηλεφωνικές κλήσεις και να τους αποσπά από τα πραγματικά θύματα – οι συνέπειες της κακόβουλης χρήσης τους φαίνονται αμέτρητες.
Στη Wizcase, πρόσφατα αναφέραμε μια αύξηση κατά 614% στις «Απάτες-Εαυτού», επισημαίνοντας πώς οι χάκερς χρησιμοποιούν τεχνολογίες deepfake για να κάνουν το ψεύτικο περιεχόμενο να φαίνεται «πιο ρεαλιστικό», και πώς οι κοινωνικές πλατφόρμες όπως η Meta έπρεπε να επέμβει σε απάτες σφαγής χοίρων, καθώς πολλοί κακοποιοί χρησιμοποιούν αυτές τις πλατφόρμες. Στην έρευνα, η Meta σημείωσε ότι πολλές απάτες ξεκίνησαν σε εφαρμογές γνωριμιών, αποδεικνύοντας πόσο δημοφιλής είναι ο ρομαντικός έρωτας ως δόλωμα – τώρα και ιστορικά.
Ο Έρωτας: Ένα Ισχυρό Δόλωμα
Οι κυβερνο-εγκληματίες δεν είναι απλώς ειδικοί στην κατανόηση και χρήση της προηγμένης τεχνητής νοημοσύνης – έχουν επίσης μια βαθιά κατανόηση της ανθρώπινης νοημοσύνης. Οι δράστες απειλών ξέρουν πώς να εντοπίζουν τις ευπάθειες, να δημιουργούν εμπιστοσύνη και να κάνουν τα αιτήματά τους την κατάλληλη στιγμή.
Η μελέτη Do You Love Me? Psychological Characteristics of Romance Scam Victims (Σ’ αγαπάω; Ψυχολογικά Χαρακτηριστικά των Θυμάτων Απάτης Ρομαντικής Φύσης), που δημοσιεύτηκε το 2018 από την Δρ. Monica T. Whitty, εξηγεί πώς διεθνή εγκληματικά συγκροτήματα διέπραξαν απάτες ρομαντικού χαρακτήρα για πολλά χρόνια – ακόμη και πριν το Διαδίκτυο – και πώς γυναίκες μεσαίας ηλικίας, με καλή μόρφωση, είναι πιθανό να πέσουν θύματα αυτού του τύπου απάτης – ακριβώς όπως η Anne.
Τι μπορούμε να περιμένουμε τώρα, οκτώ χρόνια μετά αυτήν την μελέτη, με την τεχνολογία που μοιάζει με επιστημονική φαντασία; Πιθανώς ολοι μας είμαστε πιο ευάλωτοι απ’ ό,τι νομίζουμε.
«Τα θύματα αυτού του είδους απάτης είναι συχνά άνθρωποι που αναζητούν νόημα, οι οποίοι είναι συναισθηματικά ευάλωτοι», έγραψε η Annie Lecompte, Αναπληρώτρια Καθηγήτρια στο Πανεπιστήμιο του Κεμπέκ στο Μόντρεαλ (UQAM), σε πρόσφατο άρθρο που δημοσιεύτηκε στο The Conversation. «Παρά το γεγονός ότι κατακρίνεται και παρερμηνεύεται, η απάτη της ρομαντικής αγάπης βασίζεται σε πολύπλοκους ψυχολογικούς μηχανισμούς που εκμεταλλεύονται την εμπιστοσύνη, τα συναισθήματα και την ευάλωτη κατάσταση των θυμάτων.»
Μια Σπασμένη Καρδιά, Ένα Άδειο Πορτοφόλι
Ο Liu – το επίθετο του Κινέζου που πρόσφατα έχασε 200,000 γιουάν, περίπου 28.000 δολάρια, σε μια απάτη ενισχυμένη με τεχνητή νοημοσύνη – πίστευε πραγματικά ότι η AI κοπέλα του ήταν πραγματική, καθώς βλέπει προσωποποιημένες φωτογραφίες και ακόμη και βίντεο. Χτίζοντας έναν όλο και πιο ισχυρό συναισθηματικό δεσμό… με τους απατεώνες του.
Ενώ δεν παρείχε περισσότερες λεπτομέρειες για το πλαίσιο στις αναφορές, μια άλλη θύμα, η 77χρονη γυναίκα Νίκη ΜακΛόντ, το έκανε. Και εκείνη πίστευε ότι ήταν σε μια πραγματική σχέση με μια AI κοπέλα και της έστειλε £17.000 – περίπου $22.000 – μέσω τραπεζικών μεταφορών, PayPal και καρτών δώρου.
«Δεν είμαι μια ηλίθια άνθρωπος αλλά κατάφερε να με πείσει ότι ήταν ένα πραγματικό πρόσωπο και ότι θα περνούσαμε τη ζωή μας μαζί,» είπε η ΜακΛόντ στο BBC.
Η MacLeod νιώθει μοναξιά και λύπη όταν γνώρισε την Alla Morgan σε ένα ομαδικό chat. Μετά από λίγο, η MacLeod ζήτησε ένα ζωντανό βίντεο, αλλά η Morgan απάντησε ότι δεν ήταν δυνατό καθώς εργαζόταν σε μια αποθήκη πετρελαίου. Όταν η MacLeod άρχισε να υποψιάζεται, η Morgan άρχισε να στέλνει ρεαλιστικά βίντεο. «Μου έστειλε ένα βίντεο λέγοντας ‘Γεια Nikki, δεν είμαι απατεώνας, είμαι στην αποθήκη μου με το πετρέλαιο’, και πείστηκα απόλυτα από αυτό,» εξήγησε η MacLeod. Το περιεχόμενο είναι διαθέσιμο στην ιστοσελίδα του BBC, και είναι εύκολο να καταλάβει κανείς γιατί η MacLeod πίστεψε ότι ήταν αληθινό – είναι ένα deepfake υψηλής ποιότητας.
Το BBC ζήτησε από μια ειδικό στην ασφάλεια των πληροφοριακών συστημάτων και την αλληλεπίδραση ανθρώπου-υπολογιστή στο Πανεπιστήμιο Abertay, τη Δρ. Lynsay Shepherd, να αναλύσει τις φωτογραφίες και τα βίντεο που έλαβε η MacLeod. «Κατά την πρώτη επαφή φαίνεται νόμιμο, αν δεν ξέρεις τι να ψάξεις, αλλά αν κοιτάξεις τα μάτια – οι κινήσεις των ματιών δεν είναι ακριβώς σωστές,” είπε η Δρ. Shepherd.
«Τα έγγραφα φαίνονταν αληθινά, τα βίντεο φαίνονταν αληθινά, η τράπεζα φαίνονταν αληθινή», είπε η MacLeod. «Με την εισαγωγή της τεχνητής νοημοσύνης, κάθε μοναδικό πράγμα μπορεί να είναι ψεύτικο».
Αφήστε ένα σχόλιο
Ακύρωση