Το AI μπορεί τώρα να μας ξεγελάσει ώστε να πιστέψουμε ότι ένα ψεύτικο ανθρώπινο πρόσωπο είναι πραγματικό

click fraud protection

Οι άνθρωποι δεν μπορούν πλέον να διακρίνουν τη διαφορά ανάμεσα σε ένα αληθινό ανθρώπινο πρόσωπο και ένα ψεύτικο που δημιουργείται από Όλα συμπεριλαμβάνονται, λέει μια νέα μελέτη. Η ιδέα της δημιουργίας ψεύτικων ταυτοτήτων δεν είναι νέα, αλλά έχει φτάσει σε νέα άκρα με την άνοδο του ψηφιακού «Deep Ψεύτικα». Η τεχνητή νοημοσύνη και η μηχανική μάθηση χρησιμοποιούνται για τη δημιουργία ψηφιακών ανθρώπων και φαίνεται να βελτιώνονται ώρα.

Προγράμματα τεχνητής νοημοσύνης που προσποιούνται ότι είναι άνθρωποι έχουν τη δυνατότητα να αναλάβουν πολλούς ρόλους που σήμερα καταλαμβάνουν ανθρώπινοι εργαζόμενοι, με αυτούς να θεωρούνται ως τέλειοι και ακούραστοι εργάτες για υπηρεσίες ψηφιακών τραπεζών, υπηρεσίες πελατών, τηλεφωνικά κέντρα, πωλήσεις και υποστήριξη. Τα avatar προφίλ που δημιουργούνται από AI χρησιμοποιούνται επίσης σε μεγάλο βαθμό για να δημιουργήσετε ψεύτικα προφίλ και έχουν συνδεθεί με απάτες και απειλές για την ασφάλεια στον κυβερνοχώρο.

Ερευνητές του Πανεπιστήμιο του Λάνκαστερ κατέληξε στο συμπέρασμα ότι οι άνθρωποι δεν μπορούν πλέον να διακρίνουν μεταξύ ενός προσώπου που δημιουργείται από την τεχνητή νοημοσύνη και ενός πραγματικού ανθρώπινου προσώπου

. Η ομάδα λέει ότι αυτό αντιπροσωπεύει έναν επείγοντα κίνδυνο που πρέπει να αντιμετωπιστεί με τη δημιουργία διασφαλίσεων για την προστασία του κοινού. Οι ερευνητές πρόσθεσαν ότι Κείμενο, ήχος, εικόνα και βίντεο με σύνθεση AI έχουν ήδη χρησιμοποιηθεί για διάφορους και πονηρούς σκοπούς, συμπεριλαμβανομένης της απάτης και της προπαγάνδας.

Τα ψεύτικα πρόσωπα είναι πιο αξιόπιστα

Πανεπιστήμιο Λάνκαστερ

Οι ερευνητές εξήγησαν ότι τα τεχνητά πρόσωπα κατασκευάστηκαν χρησιμοποιώντας το StyleGAN2, ένα παραγωγικό ανταγωνιστικό δίκτυο που δημιουργήθηκε αρχικά από ερευνητές της Nvidia το 2018. Το πείραμα περιείχε περισσότερους από 500 συμμετέχοντες στους οποίους ζητήθηκε να διακρίνουν τα συνθετικά πρόσωπα από τα πραγματικά και τους ζητήθηκε να καθορίσουν επίπεδο εμπιστοσύνης που αντιμετωπίζουν τους εντυπωσίασε. Τα αποτελέσματα έδειξαν ότι οι εικόνες AI δεν είναι απλώς φωτορεαλιστικές, αλλά σχεδόν δυσδιάκριτες. Ακόμη πιο ανησυχητικό, η μελέτη διαπίστωσε ότι οι άνθρωποι έκριναν τα συνθετικά πρόσωπα ως πιο αξιόπιστα από τους πραγματικούς ανθρώπους. Οι εικόνες που χρησιμοποιήθηκαν στη μελέτη ήταν διαφορετικές σε ηλικία, φυλή και συναισθήματα. Αν και οι ερευνητές δεν είχαν ξεκάθαρη ιδέα γιατί οι άνθρωποι εμπιστεύονται τα συνθετικά πρόσωπα περισσότερο από τα αληθινά, πρότειναν ότι θα μπορούσε να σχετίζεται με το πώς τα ψεύτικα πρόσωπα φαίνονται πιο μέτρια.

Το 2019, το Facebook κατέρριψε ένα δίκτυο ψεύτικων λογαριασμών που χρησιμοποιούσαν συνθετικά ανθρώπινα πρόσωπα. Η βαθιά ψεύτικη φωνή, εικόνα και βίντεο έχουν επίσης χρησιμοποιηθεί για να επιτεθούν σε εταιρείες. Το κόστος μιας βαθιάς ψεύτικης επίθεσης υπολογίζεται τώρα σε περισσότερα από 200.000 $, με τους ειδικούς της τεχνητής νοημοσύνης να προειδοποιούν συχνά ότι ο αριθμός των deep fake επιθέσεων θα αυξηθεί σημαντικά. Αυτό το τελευταίο Όλα συμπεριλαμβάνονται μελέτη επίσης προειδοποίησε για τους κινδύνους και τους κινδύνους, και ζήτησε όλα τα συνθετικά να έχουν υδατογραφήματα και να αναγνωρίζονται, διευκολύνοντας τον εντοπισμό τους.

Πηγή: Πανεπιστήμιο Λάνκαστερ

Το Oppenheimer του Nolan αποδεικνύει ήδη ότι ο Cillian Murphy ήταν μια εκπληκτική επιλογή