Η Γεννητική Τεχνητή Νοημοσύνη Συναγερμός Στην Επιστήμη Καθώς Τα Ψεύτικα Δεδομένα Απειλούν Την Αξιοπιστία
Βιάζεστε; Εδώ είναι τα Γρήγορα Στοιχεία!
- Το Γεννητικό AI επιτρέπει την ταχεία δημιουργία ρεαλιστικών αλλά ψευδών επιστημονικών δεδομένων και εικόνων.
- Οι ερευνητές δυσκολεύονται να εντοπίσουν τις εικόνες που δημιουργούνται από το AI λόγω της έλλειψης προφανών ενδείξεων χειραγώγησης.
- Οι φιγούρες που δημιουργήθηκαν από το AI μπορεί ήδη να είναι σε επιστημονικά περιοδικά.
Οι εικόνες που δημιουργούνται από τεχνητή νοημοσύνη προκαλούν μεγάλες ανησυχίες στους ερευνητές και τους εκδότες, καθώς τα νέα εργαλεία γεννητικής τεχνητής νοημοσύνης καθιστούν εντυπωσιακά εύκολη τη δημιουργία ψευδών επιστημονικών δεδομένων και εικόνων, όπως σημειώνεται σε ένα δελτίο τύπου του Nature.
Αυτή η εξέλιξη απειλεί την αξιοπιστία της ακαδημαϊκής βιβλιογραφίας, με τους ειδικούς να φοβούνται μια έξαρση των μελετών που δημιουργούνται από τεχνητή νοημοσύνη και που μπορεί να είναι δύσκολο να αναγνωριστούν.
Η Jana Christopher, αναλύτρια ακεραιότητας εικόνας στον οίκο εκδόσεων FEBS Press στη Γερμανία, τονίζει ότι η ταχεία εξέλιξη της δημιουργικής Τεχνητής Νοημοσύνης (AI) αυξάνει τις ανησυχίες για την πιθανότητα κατάχρησής της στην επιστήμη.
«Οι άνθρωποι που εργάζονται στον τομέα μου – ακεραιότητα εικόνας και δεοντολογία δημοσίευσης – αρχίζουν να ανησυχούν ολοένα και περισσότερο για τις δυνατότητες που αυτή προσφέρει», δήλωσε η Jane όπως αναφέρει το Nature.
Σημειώνει ότι, ενώ κάποια περιοδικά μπορεί να δέχονται κείμενα που δημιουργούνται από AI κάτω από ορισμένες οδηγίες, οι εικόνες και τα δεδομένα που παράγονται από την AI θεωρούνται ότι υπερβαίνουν μια γραμμή που θα μπορούσε να επηρεάσει βαθιά την ακεραιότητα της έρευνας, όπως σημειώνει το Nature.
Η ανίχνευση αυτών των εικόνων που δημιουργούνται από AI έχει γίνει μια πρωταρχική πρόκληση, λέει το Nature. Σε αντίθεση με προηγούμενες ψηφιακές παραποιήσεις, οι εικόνες που παράγονται από AI συχνά δεν έχουν τα συνηθισμένα σημάδια πλαστογραφίας, καθιστώντας δύσκολη την απόδειξη οποιασδήποτε απάτης.
Η ειδική στην ανάλυση εικόνων Elisabeth Bik και άλλοι ερευνητές υποστηρίζουν ότι τα σχήματα που παράγονται από την AI, ιδιαίτερα στη μοριακή και κυτταρική βιολογία, θα μπορούσαν ήδη να είναι παρόντα στη δημοσιευμένη βιβλιογραφία, όπως αναφέρεται από το Nature.
Εργαλεία όπως το ChatGPT χρησιμοποιούνται τώρα τακτικά για τη σύνταξη άρθρων, αναγνωρίσιμα από τυπικές φράσεις chatbot που δεν έχουν επεξεργαστεί, αλλά οι εικόνες που δημιουργούνται από την AI είναι πολύ πιο δύσκολο να εντοπιστούν. Απαντώντας σε αυτές τις προκλήσεις, εταιρείες τεχνολογίας και ερευνητικά ιδρύματα αναπτύσσουν εργαλεία ανίχνευσης, όπως σημειώνει το Nature.
Οι εργαλεία που ενεργοποιούνται από την τεχνητή νοημοσύνη, όπως το Imagetwin και το Proofig, είναι στην πρώτη γραμμή, εκπαιδεύοντας τους αλγόριθμούς τους για να αναγνωρίζουν το περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη. Ο συνιδρυτής της Proofig, Dror Kolodkin-Gal, αναφέρει ότι το εργαλείο τους εντοπίζει με επιτυχία τις εικόνες που δημιουργούνται από τεχνητή νοημοσύνη το 98% των φορών, αλλά σημειώνει ότι η ανθρώπινη επαλήθευση παραμένει ζωτική για την επικύρωση των αποτελεσμάτων, όπως ανέφερε το Nature.
Στον εκδοτικό κόσμο, περιοδικά όπως το Science χρησιμοποιούν το Proofig για αρχικές σαρώσεις των υποβληθέντων εργασιών, ενώ ο εκδοτικός γίγαντας Springer Nature αναπτύσσει δικά του εργαλεία, το Geppetto και το SnapShot, για την αναγνώριση ασυνήθιστων στοιχείων σε κείμενα και εικόνες, όπως αναφέρει το Nature.
Άλλοι οργανισμοί, όπως η Διεθνής Ένωση Επιστημονικών, Τεχνικών και Ιατρικών Εκδοτών, ξεκινούν επίσης πρωτοβουλίες για την καταπολέμηση των εργοστασίων εκτυπώσεων και για τη διασφάλιση της ακεραιότητας της έρευνας, όπως αναφέρει το Nature.
Ωστόσο, οι ειδικοί προειδοποιούν ότι οι εκδότες πρέπει να ενεργήσουν γρήγορα. Ο Kevin Patrick, ένας ερευνητής των επιστημονικών εικόνων, ανησυχεί ότι, εάν η δράση καθυστερεί, το περιεχόμενο που παράγεται από την Τεχνητή Νοημοσύνη θα μπορούσε να γίνει ακόμη ένα ανεπίλυτο πρόβλημα στην ακαδημαϊκή λογοτεχνία, όπως ανέφερε το Nature.
Παρά τις ανησυχίες αυτές, πολλοί διατηρούν την ελπίδα ότι η μελλοντική τεχνολογία θα εξελιχθεί ώστε να ανιχνεύει τις απάτες που δημιουργούνται από την τεχνητή νοημοσύνη σήμερα, προσφέροντας μια μακροπρόθεσμη λύση για την προστασία της ακεραιότητας της ακαδημαϊκής έρευνας.
Αφήστε ένα σχόλιο
Ακύρωση