Η Σαφής Γραμμή Ανάμεσα στα Πραγματικά και τα Βίντεο Που Δημιουργούνται από την Τεχνητή Νοημοσύνη θα μπορούσε να Εξαφανιστεί το 2025

Photo by ActionVance on Unsplash

Η Σαφής Γραμμή Ανάμεσα στα Πραγματικά και τα Βίντεο Που Δημιουργούνται από την Τεχνητή Νοημοσύνη θα μπορούσε να Εξαφανιστεί το 2025

Χρόνος ανάγνωσης: 7 λεπτό

Το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη ήρθε για να μείνει. Γίνεται ολοένα και καλύτερο και είδαμε σημαντική βελτίωση στις τεχνολογίες της τεχνητής νοημοσύνης το 2024. Θα είμαστε σε θέση να διακρίνουμε τι είναι πραγματικό και τι όχι το 2025;

Πρόσφατα βρέθηκα να αναρωτιέμαι «Είναι αυτή πραγματική γυναίκα;» -κοιτάζοντας λίγο στενά- μετά από ένα post στο Instagram. «Όχι, πρέπει να είναι παραγωγή της τεχνητής νοημοσύνης», συμπέρανα μετά από λίγο. Στη συνέχεια αναρωτήθηκα αμέσως: Θα μπορούμε ακόμη να διακρίνουμε τη διαφορά μέσα σε δευτερόλεπτα του χρόνου; Όλα τα σημεία οδηγούν στο όχι, ειδικά στα social media, όπως υποδηλώνουν οι πρόσφατες σημαντικές εξελίξεις στην τεχνολογία της τεχνητής νοημοσύνης.

Πριν από μερικές ημέρες, ο επικεφαλής του Instagram, ο Adam Mosseri, δημοσίευσε ένα μήνυμα που αντιμετωπίζει αυτό το ζήτημα στο Threads. «Η γεννητική τεχνητή νοημοσύνη παράγει σαφώς περιεχόμενο που είναι δύσκολο να διακριθεί από τις εγγραφές της πραγματικότητας και βελτιώνεται γρήγορα», έγραψε. Ο Mosseri δημόσια αναγνώρισε ότι αντιμετωπίζουν δυσκολίες στη Meta με την ετικέτα περιεχομένου που δημιουργήθηκε από τεχνητή νοημοσύνη και τον έλεγχο και παρακολούθηση των τεράστιων ποσοτήτων μέσων που μοιράζονται κάθε δευτερόλεπτο στις πλατφόρμες των social media.

Ο Mosseri εξέπλυνε τη Meta από την ευθύνη και προειδοποίησε τους χρήστες ότι εξαρτάται από αυτούς να διακρίνουν εάν μια ανάρτηση ήταν πραγματική ή όχι. «Θα είναι ολοένα και πιο κρίσιμο ο θεατής, ή ο αναγνώστης, να έχει διακριτική σκέψη όταν καταναλώνει περιεχόμενο που προσποιείται να είναι λογαριασμός ή εγγραφή της πραγματικότητας», πρόσθεσε.

Μόλις λίγες μέρες αργότερα, η OpenAI κυκλοφόρησε το Sora Turbo, τον ισχυρό της γεννήτορα βίντεο AI, επιτρέποντας στους χρήστες Pro και Plus να δημιουργούν ρεαλιστικά βίντεο από προτροπές κειμένου. Σε λίγα μόνο λεπτά, οι χρήστες άρχισαν να δημιουργούν συναρπαστικά ρεαλιστικά βίντεο και ξεκίνησαν να τα μοιράζονται στα κοινωνικά μέσα.

Ακριβώς όταν όλα φαίνονταν να φτάνουν σε ένα νέο επίπεδο παραγωγής βίντεο, η Google ανακοίνωσε το τελευταίο της εργαλείο βίντεο AI, το Veo 2, με υψηλότερη ανάλυση και μεγαλύτερα κλιπ από το Sora. Φυσικά, τα αποτελέσματα που μοιράστηκαν από αυτούς που είχαν πρόσβαση στην προηγμένη τεχνολογία ήταν ακόμα πιο εντυπωσιακά.

«Κανείς δεν μπορεί να πει ότι αυτό είναι τεχνητή νοημοσύνη τώρα», έγραψε ένας χρήστης.

Συμβαίνει Ήδη

Κατά τη διάρκεια του 2024, έχουμε παρακολουθήσει πώς το περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη έχει επηρεάσει τους πληθυσμούς, τις εκλογές και τους χρήστες των κοινωνικών μέσων ενημέρωσης.

Τον Ιανουάριο, οι κάτοικοι του New Hampshire έλαβαν μια κλήση «από τον Joe Biden» που τους έλεγε να μην ψηφίσουν στις πρωτοβουλίες εκλογές. Ο πολιτικός σύμβουλος Steve Kramer ήταν πίσω από την απάτη και καταδικάστηκε σε πρόστιμο 6 εκατομμυρίων δολαρίων για τις τηλεφωνικές κλήσεις AI deepfake. Οι κυβερνήσεις έχουν αρχίσει να κατανοούν τον αντίκτυπο που μπορεί να έχει η AI και χώρες όπως η Σιγκαπούρη αναπτύσσουν νόμους και στρατηγικές για να βοηθήσουν τον πληθυσμό να εντοπίζει το περιεχόμενο deepfake.

Στη Βενεζουέλα, τα βίντεο που δημιουργούνται από AI έχουν διαδώσει παραπληροφόρηση – αλλά βοηθούν επίσης τους δημοσιογράφους να ενημερώνουν μέσω των AI avatars για να παρακάμπτουν τη λογοκρισία.

Οι άνθρωποι δυσκολεύονται ολοένα και περισσότερο να διακρίνουν τι είναι πραγματικό και τι όχι, και δε φταίνε αυτοί: το περιεχόμενο που παράγεται από την Τεχνητή Νοημοσύνη γίνεται όλο και καλύτερο.

Το υψηλής ποιότητας περιεχόμενο που παράγεται από την Τεχνητή Νοημοσύνη αποτελεί έναν αναπτυσσόμενο τομέα σε όλες του τις μορφές: κείμενο, ήχο, και βίντεο. Πολλοί δημιουργοί του OnlyFans βασίζονται πλέον σε chatbots για να συμμετέχουν σε συνομιλίες με τους οπαδούς τους, μια δουλειά που παλιότερα ανατίθετο σε εργαζόμενους ανά δουλειά σε χώρες με χαμηλότερο εισόδημα. Τα νέα μοντέλα Τεχνητής Νοημοσύνης που ειδικεύονται σε τεχνικές φλερτ έχουν ακόμη παραγάγει $1,000 από τις προμήθειες των ακολούθων τους.

Τον Απρίλιο, η εταιρεία εκκίνησης Synthesia που υποστηρίζεται από την Nvidia, κυκλοφόρησε ψηφιακούς αντίγραφους χαρακτήρων (avatars) που μπορούν να εκφράσουν ανθρώπινα συναισθήματα και να μιλήσουν σε 130 γλώσσες. Το TikTok επιτρέπει στις εταιρείες να δημιουργούν διαφημίσεις που παράγονται από τεχνητή νοημοσύνη (ΑΙ) χρησιμοποιώντας περιεχόμενο από το Getty Images, ενώ τώρα οι δημιουργοί του YouTube μπορούν να χρησιμοποιήσουν την νέα λειτουργία αυτόματης διασκευής με ΑΙ για να μεταφράσουν το περιεχόμενό τους σε 9 γλώσσες και οι μελλοντικές ενημερώσεις θα αναπαράγουν την αρχική φωνή.

Η Zoom εργάζεται για τη δημιουργία ψηφιακών αντιγράφων χαρακτήρων που μοιάζουν ακριβώς με τους χρήστες, ώστε να τους βοηθήσει να καταγράψουν μηνύματα και ακόμη και να συμμετέχουν σε συναντήσεις. Αυτό το εργαλείο θα κυκλοφορήσει το επόμενο έτος, αλλά ήδη οι άνθρωποι έχουν δοκιμάσει πολλαπλά εργαλεία και οι εταιρείες μπορούν ήδη να δημιουργήσουν φωτορεαλιστικές κλώνους με την χρήση τεχνητής νοημοσύνης.

Είσαι σίγουρη ότι μίλησες με έναν πραγματικό άνθρωπο κατά την διάρκεια της τελευταίας σου κλήσης στο Zoom;

Πώς Να Αναγνωρίσεις Αν Δημιουργήθηκε Από Τεχνητή Νοημοσύνη; Για Τώρα

Ζούμε σε σύγχυση εποχές σε αυτήν την ψηφιακή εποχή. Τα φίλτρα μπορούν να κάνουν οποιονδήποτε να μοιάζει με μοντέλο με αψεγάδιαστο δέρμα, και οι διορθώσεις αξίζουσες για Photoshop είναι μόνο ένα κλικ μακριά στο Instagram ή Snapchat – πόσοι άνθρωποι θα ήθελαν να μοιραστούν την «φυσική» τους εικόνα, με όλες τις ατέλειες, όταν μπορεί να βελτιωθεί σε δευτερόλεπτα; Βλέπουμε ολοένα και περισσότερες διαφημίσεις που παρουσιάζουν φωτορεαλιστικές εικόνες που δημιουργούνται από τεχνητή νοημοσύνη, πείθοντας σταδιακά τα μάτια μας για την οικειότητα και την «κανονικότητά» τους. Και κάθε μέρα, οι εκπληκτικές εξελίξεις σε όλο τον κόσμο μας κάνουν να αναρωτιόμαστε: τι είναι πραγματικό και τι δεν είναι πλέον;

Οι μεγάλες εταιρείες AI έχουν εργαστεί πάνω σε υδατογραφήματα για να ανιχνεύσουν εύκολα το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη και να το αναγνωρίσουν. Τον Οκτώβριο, το Google DeepMind κυκλοφόρησε το δικό του σύστημα υδατογραφημάτων ανοιχτού κώδικα για να επισημάνει τα βίντεο, τα κείμενα και τον ήχο που παράγει η AI, ενώ και η Meta περιέλαβε ένα στο εργαλείο βίντεο AI της.

Ωστόσο, η αποτελεσματικότητά του είναι αμφισβητήσιμη, αρχίζοντας από το γεγονός ότι η Meta αναγνωρίζει απλά ότι δεν μπορεί να επισημάνει όλο το περιεχόμενο που παράγεται από AI. Οι επιθετικοί δράστες μπορούν ακόμα να βρουν τρόπους να αφαιρέσουν τα υδατογραφήματα και είναι απαραίτητες περισσότερες νομοθεσίες, συνεργασίες και συμφωνίες ανάμεσα στις εταιρείες κοινωνικής δικτύωσης και τις κυβερνήσεις για την επίτευξη ενός πιο επιτυχημένου συστήματος.

Προς το παρόν, εκτός από το να εμπιστευόμαστε την ένστικτη μας, μπορούμε να θέσουμε στον εαυτό μας μερικές ερωτήσεις πριν μοιραστούμε κάτι στα μέσα κοινωνικής δικτύωσης ή να πιστέψουμε αυτό που βλέπουμε:

  • Ακριβώς όπως πρότεινε ο Mosseri, να λάβετε υπόψη τα εξής: Ποιος μοιράζεται αυτές τις πληροφορίες; Πρόκειται για μια αξιόπιστη πηγή;
  • Η έκφραση ή η κίνηση του ατόμου φαίνεται ρομποτική; Παρόλο που τα AI avatars μπορεί να είναι αρκετά ρεαλιστικά, είναι ακόμα δυνατόν να αναγνωρίσετε μια περίεργη ακαμψία ή έλλειψη συναισθήματος – αν και πρέπει να λάβετε υπόψη σας ότι κάποιες εταιρείες όπως η Synthesia ήδη βελτιώνουν αυτό.
  • Το περιεχόμενο σχεδιάστηκε για να προκαλέσει έντονη συναισθηματική αντίδραση; Οι επιθετικοί παράγοντες γνωρίζουν πόσο εύκολα μοιραζόμαστε τα αρνητικά νέα και αλληλεπιδρούμε με συναισθηματικά φορτισμένο υλικό στα social media και η έρευνα το επιβεβαιώνει. Πριν μοιραστείτε αυτό το περιεχόμενο που έκανε το αίμα σας να βράζει για να εξοργίσετε και τους άλλους όσο είστε εσείς, σκεφτείτε εάν έχει σχεδιαστεί για να δημιουργήσει διαμάχη ή εάν πρόκειται πραγματικά για ειδήσεις ή γεγονός.
  • Μπορείτε να επιβεβαιώσετε το περιεχόμενο με άλλες πηγές; Ο διπλός έλεγχος με αξιόπιστες πηγές ποτέ δεν βλάπτει.

Και τέλος, έχεις ρωτήσει τον εαυτό σου – ή τον αγαπημένο σου chatbot – πώς να βελτιώσεις την κριτική σου σκέψη; Η ανάπτυξη μιας κριτικής σκέψης θα έπρεπε σίγουρα να βρίσκεται στις πρωτοχρονιάτικες αποφάσεις όλων.

Σας αρέσει το άρθρο;
Βαθμολογήστε το!
Το μίσησα Δεν μου άρεσε Ήταν καλό Αρκετά καλό! Το λάτρεψα!

Είναι χαρά μας που σας αρέσει η δουλειά μας!

Αγαπητοί μας αναγνώστες, θα θέλατε να προσθέσετε μια αξιολόγηση στο Trustpilot; Είναι μια γρήγορη διαδικασία και σημαίνει πάρα πολλά για εμάς. Σας ευχαριστούμε πολύ για την προτίμηση!

Αξιολογήστε μας στο Trustpilot
0 Ψηφίστηκε από 0 Χρήστες
Τίτλος
Σχόλιο
Σας ευχαριστούμε για τα σχόλιά σας
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Αφήστε ένα σχόλιο

Loader
Loader Δείτε περισσότερα...