
Photo by Saúl Bucio on Unsplash
Σφάλματα που Δημιουργήθηκαν από Τεχνητή Νοημοσύνη σε Δικαστικά Έγγραφα Οδηγούν σε Νομικά Προβλήματα για τους Δικηγόρους
Μια έκθεση που διαμοιράστηκε από το Reuters χθες αποκαλύπτει ότι οι ψευδαισθήσεις της Τεχνητής Νοημοσύνης – λάθη και πλαστή πληροφορία που δημιουργούνται από γεννητικά μοντέλα ΤΝ – προκαλούν νομικά προβλήματα στα δικαστήρια των Ηνωμένων Πολιτειών.
Βιάζεστε; Εδώ είναι τα Σημαντικά Γεγονότα!
- Η Morgan & Morgan έστειλε email σε 1.000 δικηγόρους προειδοποιώντας για τους κινδύνους της AI.
- Η πρόσφατη υπόθεση των δικηγόρων της Walmart που παραδέχτηκαν ότι χρησιμοποιούν AI για τις υποθέσεις τους, έχει ξυπνήσει συναγερμούς στη νομική κοινότητα.
- Η χρήση των εφιάλτων των chatbot σε δηλώσεις δικαστηρίου έχει γίνει μια επαναλαμβανόμενη πρόκληση τα τελευταία χρόνια.
Αυτό τον μήνα, η δικηγορική εταιρεία Morgan & Morgan έστειλε ένα email προειδοποιώντας πάνω από 1.000 δικηγόρους για τους κινδύνους της χρήσης chatbots και ψεύτικων υποθέσεων που παράγονται από την τεχνητή νοημοσύνη.
Πριν από λίγες μέρες, δύο δικηγόροι στο Wyoming παραδέχτηκαν ότι περιλάμβαναν ψεύτικες υποθέσεις που δημιουργήθηκαν από τεχνητή νοημοσύνη σε ένα αρχείο που κατατέθηκε στο δικαστήριο για μια αγωγή εναντίον του Walmart, και ένας ομοσπονδιακός δικαστής απειλούσε να τους επιβάλει κυρώσεις.
Τον Δεκέμβριο, ο καθηγητής του Stanford και ειδικός σε πληροφορίες που παραπληροφορούν, ο Jeff Hancock, κατηγορήθηκε ότι χρησιμοποίησε τεχνητή νοημοσύνη για να παραχθούν ψεύτικες αναφορές δικαστηριακών δηλώσεων ως μέρος της δήλωσής του υπεράσπισης του νόμου της πολιτείας του 2023 που ποινικοποιεί τη χρήση των deepfakes για την επηρεασία των εκλογών.
Πολλαπλές υποθέσεις όπως αυτές, κατά τη διάρκεια των τελευταίων ετών, έχουν δημιουργήσει νομικές τριβές και προκαλούν προβλήματα στους δικαστές και τους δικηγόρους. Η Morgan & Morgan και η Walmart αρνήθηκαν να σχολιάσουν επί του θέματος.
Η δημιουργική τεχνητή νοημοσύνη έχει βοηθήσει στη μείωση του χρόνου έρευνας για τους δικηγόρους, αλλά οι «παραισθήσεις» της μπορούν να έχουν σημαντικό κόστος. Πέρυσι, μια έρευνα της Thomson Reuters αποκάλυψε ότι το 63% των δικηγόρων χρησιμοποίησε την ΤΝ για την εργασία τους και το 12% το έκανε τακτικά.
Πέρυσι, η Αμερικανική Δικηγορική Ένωση υπενθύμισε στα 400.000 μέλη της τους κανόνες ηθικής των δικηγόρων, οι οποίοι περιλαμβάνουν την υποστήριξη από τους δικηγόρους όλων των πληροφοριών που παραθέτουν στα δικαστικά έγγραφα, και σημείωσε ότι αυτό περιλαμβάνει τις πληροφορίες που παράγονται από Τεχνητή Νοημοσύνη, ακόμη και αν ήταν ακούσιες – όπως σε την περίπτωση του Hancock.
«Όταν οι δικηγόροι συλλαμβάνονται χρησιμοποιώντας το ChatGPT ή οποιοδήποτε εργαλείο γενετικής Τεχνητής Νοημοσύνης για τη δημιουργία παραπομπών χωρίς να τις ελέγχουν, αυτό είναι ανικανότητα, τίποτα περισσότερο, τίποτα λιγότερο,» δήλωσε ο Andrew Perlman, διευθυντής της Νομικής Σχολής του Πανεπιστημίου Suffolk στο Reuters.
Λίγες μέρες πριν, η BBC μοιράστηκε επίσης ένα δημοσίευμα που προειδοποιεί για ψευδείς φράσεις που δημιουργούνται από την Τεχνητή Νοημοσύνη και τα προβλήματα με τα εργαλεία Τεχνητής Νοημοσύνης στη δημοσιογραφία.
Αφήστε ένα σχόλιο
Ακύρωση