Πώς να ξεχωρίσεις τα AI βίντεο στο διαδίκτυο: Το νούμερο 1 σημάδι που τα «προδίδει»
Αν κάνεις scroll στα social media είναι πολύ πιθανό να «πέσεις» πάνω σε βίντεο που δημιουργήθηκε με την βοήθεια της τεχνητής νοημοσύνης. Είσαι σίγουρος όμως ότι θα το αναγνωρίσεις;
Τους τελευταίους μήνες οι δημιουργοί βίντεο τεχνητής νοημοσύνης έχουν γίνει τόσο καλοί που η σχέση μας με τις κάμερες είναι έτοιμη να λιώσει. Αυτό είναι το καλύτερο σενάριο: θα σας ξεγελούν ξανά και ξανά, μέχρι να βαρεθείτε τόσο πολύ που θα αμφισβητείτε ό,τι βλέπετε. Καλώς ήρθατε στο μέλλον.
Προς το παρόν όμως υπάρχουν κάποια σημάδια που μπορούν να σας βοηθήσουν να αντιληφθείτε τα AI βίντεο, σημειώνει το BBC. Ένα από αυτά ξεχωρίζει. Αν δείτε ένα βίντεο με κακή ποιότητα εικόνας – σκεφτείτε κοκκώδη, θολή εικόνα – θα πρέπει να σας χτυπήσει καμπανάκι ότι ίσως βλέπετε τεχνητή νοημοσύνη. «Είναι ένα από τα πρώτα πράγματα που κοιτάζουμε», λέει ο Hany Farid, καθηγητής πληροφορικής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϊ, πρωτοπόρος στον τομέα της ψηφιακής εγκληματολογίας και ιδρυτής της εταιρείας ανίχνευσης deepfake GetReal Security.
Όλα τα βίντεο κακής ποιότητας είναι φτιαγμένα με AI;
Η θλιβερή αλήθεια είναι ότι τα εργαλεία βίντεο τεχνητής νοημοσύνης θα γίνουν τελικά ακόμα καλύτερα και αυτή η συμβουλή θα είναι σύντομα άχρηστη. Αυτό μπορεί να συμβεί σε λίγους μήνες ή μπορεί να πάρει χρόνια. Για να γίνει πιο σαφές: αυτό δεν αποτελεί την μοναδική απόδειξη. Όχι, δεν είναι όλα τα βίντεο κακής ποιότητας φτιαγμένα με AI. Τα βίντεο που δημιουργήθηκαν με την συμβολή της τεχνητής νοημοσύνης μπορούν να παράγουν όμορφα, καλοφτιαγμένα κλιπ. Και τα κλιπ χαμηλής ποιότητας δεν είναι απαραίτητα φτιαγμένα από AI. «Αν δείτε κάτι που είναι πραγματικά χαμηλής ποιότητας, αυτό δεν σημαίνει ότι είναι ψεύτικο. Δεν σημαίνει ότι είναι κάτι κακό», λέει ο Matthew Stamm, καθηγητής και επικεφαλής του Εργαστηρίου Πολυμέσων και Ασφάλειας Πληροφοριών στο Πανεπιστήμιο Drexel των ΗΠΑ.
Αντίθετα, το θέμα είναι ότι τα θολά, pixelated βίντεο AI είναι αυτά που είναι πιο πιθανό να σας ξεγελάσουν, τουλάχιστον προς το παρόν. Είναι ένα σημάδι ότι ίσως πρέπει να εξετάσετε πιο προσεκτικά αυτό που βλέπετε. «Οι κορυφαίοι μετατροπείς κειμένου σε βίντεο, όπως το Veo της Google και το Sora της OpenAI, εξακολουθούν να παρουσιάζουν μικρές ασυνέπειες», λέει ο Farid. «Αλλά δεν πρόκειται για έξι δάχτυλα ή αλλοιωμένο κείμενο. Είναι πιο λεπτές από αυτές».
Ακόμα και τα πιο προηγμένα μοντέλα της σημερινής εποχής συχνά παρουσιάζουν προβλήματα, όπως υπερβολικά λεία υφή δέρματος, παράξενα ή μεταβαλλόμενα μοτίβα στα μαλλιά και τα ρούχα ή μικρά αντικείμενα στο φόντο που κινούνται με αδύνατους ή μη ρεαλιστικούς τρόπους. Είναι εύκολο να τα παραβλέψεις, αλλά όσο πιο καθαρή είναι η εικόνα, τόσο πιο πιθανό είναι να δεις αυτά τα αποκαλυπτικά σφάλματα της τεχνητής νοημοσύνης.
Αυτό είναι που κάνει τα βίντεο χαμηλότερης ποιότητας τόσο ελκυστικά. Όταν ζητάτε από την τεχνητή νοημοσύνη κάτι που μοιάζει να έχει τραβηχτεί με ένα παλιό τηλέφωνο ή μια κάμερα ασφαλείας, για παράδειγμα, μπορεί να κρύψει τα στοιχεία που διαφορετικά θα μπορούσαν να προδώσουν το ψεύτικο.
Άλλοι παράγοντες που βοηθούν
«Τα τρία πράγματα που πρέπει να προσέξουμε είναι η ανάλυση, η ποιότητα και η διάρκεια», λέει ο Farid. Η διάρκεια είναι το πιο εύκολο. «Στην πλειονότητα τους, τα βίντεο AI είναι πολύ σύντομα, ακόμη πιο σύντομα από τα τυπικά βίντεο που βλέπουμε στο TikTok ή στο Instagram, τα οποία έχουν διάρκεια περίπου 30 έως 60 δευτερόλεπτα. Η συντριπτική πλειονότητα των βίντεο που μου ζητείται να επαληθεύσω έχουν διάρκεια έξι, οκτώ ή δέκα δευτερόλεπτα». Αυτό συμβαίνει επειδή η δημιουργία βίντεο AI είναι δαπανηρή, οπότε τα περισσότερα εργαλεία έχουν ως μέγιστο όριο τα σύντομα κλιπ. Επιπλέον, όσο μεγαλύτερο είναι ένα βίντεο, τόσο πιο πιθανό είναι να κάνει λάθη η τεχνητή νοημοσύνη. «Μπορείτε να ενώσετε πολλά βίντεο AI, αλλά θα παρατηρήσετε μια διακοπή κάθε οκτώ δευτερόλεπτα περίπου».
Οι άλλοι δύο παράγοντες, η ανάλυση και η ποιότητα, είναι σχετικοί αλλά διαφορετικοί. Η ανάλυση αναφέρεται στον αριθμό ή το μέγεθος των εικονοστοιχείων σε μια εικόνα, ενώ η συμπίεση είναι μια διαδικασία που μειώνει το μέγεθος ενός αρχείου βίντεο απορρίπτοντας λεπτομέρειες, αφήνοντας συχνά πίσω μπλοκ μοτίβα και θολά άκρα.
Βέβαια, οι τεχνολογικοί γίγαντες εργάζονται για να κάνουν την τεχνητή νοημοσύνη ακόμα πιο ρεαλιστική. Αυτό δεν σημαίνει ότι η αλήθεια είναι χαμένη υπόθεση. Όταν ερευνητές όπως ο Farid και ο Stamm επαληθεύουν ένα κομμάτι περιεχομένου, έχουν στη διάθεσή τους πιο προηγμένες τεχνικές. «Όταν δημιουργείτε ή τροποποιείτε ένα βίντεο, αυτό αφήνει πίσω του μικρά στατιστικά ίχνη που τα μάτια μας δεν μπορούν να δουν, όπως τα δακτυλικά αποτυπώματα σε μια σκηνή εγκλήματος», λέει ο Stamm. «Βλέπουμε την εμφάνιση τεχνικών που μπορούν να βοηθήσουν στην αναζήτηση και την αποκάλυψη αυτών των δακτυλικών αποτυπωμάτων». Μερικές φορές, για παράδειγμα, η κατανομή των εικονοστοιχείων σε ένα ψεύτικο βίντεο μπορεί να είναι διαφορετική από αυτή ενός πραγματικού, αλλά παράγοντες όπως αυτοί δεν είναι απόλυτα αξιόπιστοι».
Η πραγματική λύση, σύμφωνα με τον ειδικό σε θέματα ψηφιακής παιδείας Mike Caulfield, είναι να αρχίσουμε όλοι να σκεφτόμαστε διαφορετικά για ό,τι βλέπουμε στο διαδίκτυο. Το να αναζητούμε τα στοιχεία που αφήνει πίσω της η τεχνητή νοημοσύνη δεν είναι «βιώσιμη» συμβουλή, επειδή αυτά τα στοιχεία αλλάζουν συνεχώς, λέει. Αντ’ αυτού, ο Caulfield λέει ότι πρέπει να εγκαταλείψουμε την ιδέα ότι τα βίντεο ή οι εικόνες έχουν οποιαδήποτε σημασία εκτός πλαισίου. «Η άποψή μου είναι ότι, μακροπρόθεσμα, τα βίντεο θα γίνουν σε μεγάλο βαθμό κάτι σαν κείμενο, όπου η προέλευση [η πηγή του βίντεο], και όχι τα επιφανειακά χαρακτηριστικά, θα είναι το πιο σημαντικό, και θα πρέπει να προετοιμαστούμε για αυτό», λέει ο Caulfield.








