Πέντε συμβουλές για να αναγνωρίσετε ένα βίντεο που δημιουργείται από τεχνητή νοημοσύνη στα μέσα κοινωνικής δικτύωσης - iefimerida.gr

Πέντε συμβουλές για να αναγνωρίσετε ένα βίντεο που δημιουργείται από τεχνητή νοημοσύνη στα μέσα κοινωνικής δικτύωσης

Δημιουργία βίντεο με τη βοήθεια της Τεχνητής Νοημοσύνης
Δημιουργία βίντεο με τη βοήθεια της Τεχνητής Νοημοσύνης / Φωτογραφία: Shutterstock
NEWSROOM IEFIMERIDA.GR

Τα ερωτήματα για την αυθεντικότητα των βίντεο που κυκλοφορούν στα μέσα κοινωνικής δικτύωσης πληθαίνουν λόγω της προόδου που παρουσιάζουν οι εφαρμογές με τη χρήση Τεχνητής Νοημοσύνης.

Οι επαγγελματίες που ασχολούνται με αντικείμενο που σχετίζεται με θέματα εικόνας μπορούν να καταλάβουν ευκολότερα ένα deepfake ή ένα βίντεο που έχει δημιουργηθεί με τη βοήθεια AI, όμως άπαντες παραδέχονται ότι ακόμη και για τους ίδιους έχουν δυσκολέψει κάπως τα πράγματα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Ακολουθεί μία λίστα με συμβουλές που μπορούν να βοηθήσουν για τον έλεγχο ενός βίντεο που έχει δημιουργηθεί με τη βοήθεια Τεχνητής Νοημοσύνης, όμως δεν αποκλείεται κάποια στοιχεία να διαφοροποιηθούν με τον καιρό, στο πλαίσιο της ραγδαίας τεχνολογικής εξέλιξης.

Ψάξτε το υδατογράφημα

Τα περισσότερα δημοφιλή λογισμικά προσθέτουν ένα υδατογράφημα, δηλαδή το λογότυπο ή το όνομά τους στα βίντεο Τεχνητής Νοημοσύνης που δημιουργούν. Αυτό συμβαίνει με το Veo, το Grok ή το Sora 2, την εφαρμογή που κυκλοφόρησε η OpenAI στις ΗΠΑ.

Βέβαια, το πρόβλημα σε αυτό είναι ότι υπάρχουν και δωρεάν υπηρεσίες (Meta AI) που δεν χρησιμοποιούν υδατογράφημα. Επίσης, υπάρχουν άλλες υπηρεσίες που μπορούν να αφαιρέσουν ένα υδατογράφημα με λίγα κλικ.

Στο παρακάτω βίντεο, που δημοσιεύθηκε στο Instagram, μπορείτε να διακρίνετε ένα υδατογράφημα που αρχικά είναι καλυμμένο (κάτω αριστερά), στη συνέχεια θολωμένο (στο κέντρο δεξιά, και μετά πάνω αριστερά).

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Παρατηρήστε τη διάρκεια του βίντεο

Γενικά, τα βίντεο που δημιουργούνται με τη βοήθεια της Τεχνητής Νοημοσύνης παραμένουν ακόμα πολύ σύντομα. Στη δωρεάν τους έκδοση, τα πιο διαδεδομένα λογισμικά μπορούν να παράγουν μόνο αποσπάσματα λίγων δευτερολέπτων (έξι δευτερόλεπτα το μέγιστο για το Grok, την AI του Έλον Μασκ, οκτώ δευτερόλεπτα για το Veo, την τεχνολογία της Google, και 15 δευτερόλεπτα για το Sora 2).

Το πρόβλημα που υπάρχει στο συγκεκριμένο στοιχείο είναι ότι αρκετοί κάνουν συνθέσεις βίντεο που έχουν δημιουργηθεί με τη βοήθεια AI, ενώ υπάρχει και η συνδρομή στις συγκεκριμένες εφαρμογές που δίνει τη δυνατότητα για αύξηση του χρόνου διάρκειας (έως και 25 δευτερόλεπτα για τους συνδρομητές των επαγγελματικών εκδόσεων του Sora, και 60 δευτερόλεπτα για ορισμένες ενσωματώσεις του Veo σε λογισμικά τρίτων).

Ελέγξτε αν υπάρχουν ετικέτες για Τεχνητή Νοημοσύνη

Σε ισχύ από το 2024, ο ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη εισήγαγε υποχρεώσεις για τα «γενετικά εργαλεία» που είναι προσβάσιμα στην Ευρώπη. Μεταξύ αυτών, η υποχρέωση να «σημειώνεται ξεκάθαρα ότι το παραγόμενο περιεχόμενο προέρχεται από ΤΝ».

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Στη Meta (μητρική εταιρεία του Facebook και του Instagram), στο TikTok ή και στο YouTube, ο θεωρητικός κανόνας είναι εξίσου σαφής: τα βίντεο που δημιουργούνται από Τεχνητή Νοημοσύνη πρέπει να επισημαίνονται ως τέτοια από τους λογαριασμούς που τα δημοσιεύουν.

Αυτές οι αναφορές μπορούν να τοποθετηθούν απευθείας στις εικόνες, στη λεζάντα των βίντεο ή στα βιογραφικά των λογαριασμών. Υπάρχουν όμως και συγκεκριμένες ετικέτες «AI», που πρέπει να εμφανίζονται στην κορυφή ή στο κάτω μέρος ενός βίντεο.

Το πρόβλημα είναι ότι αν ο αποστολέας ενός βίντεο δεν παρέχει την πληροφορία, οι πλατφόρμες βασίζονται σε αυτόματη ανίχνευση για να εφαρμόσουν τις ετικέτες Τεχνητή Νοημοσύνη.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Αυτά τα συστήματα αναλύουν, μεταξύ άλλων, τα μεταδεδομένα ενός περιεχομένου (ημερομηνία, λογισμικό που χρησιμοποιήθηκε κ.λπ.) που είναι καταχωρημένα στο αρχείο που αποστέλλεται διαδικτυακά. Ορισμένα από αυτά χρησιμοποιούνται πλέον για τον εντοπισμό της παρουσίας Τεχνητής Νοημοσύνης.

Ωστόσο, αυτή η αυτόματη ανίχνευση δεν λειτουργεί καλά. Σε μια μελέτη που δημοσιεύτηκε τον Οκτώβριο, ο εξειδικευμένος ιστότοπος Indicator αναφέρει ότι, από 233 φωτογραφίες και βίντεο που δημιουργήθηκαν από Τεχνητή Νοημοσύνη στο YouTube, το TikTok και το Instagram, μόνο το ένα τρίτο αυτών επισημάνθηκαν σωστά ως AI από τις πλατφόρμες.

Βρείτε ίχνη τεχνητής νοημοσύνης στις εικόνες

Για να εντοπίσει κανείς ένα βίντεο που έχει δημιουργηθεί από Tεχνητή Nοημοσύνη θα πρέπει να το αναλύσει εικόνα προς εικόνα και να αναζητήσει ασυνεπή στοιχεία. Αυτό, σε κάθε περίπτωση, είναι η κύρια συμβουλή των δημοσιογράφων της υπηρεσίας βίντεο της εφημερίδας Le Monde.

Ένα μέρος της συντακτικής δουλειάς αυτής της ομάδας είναι να επαληθεύει τις εικόνες που δημοσιεύονται στα μέσα κοινωνικής δικτύωσης. Για τον σκοπό αυτό, μπορούν να χρησιμοποιήσουν εξειδικευμένα λογισμικά για την ανίχνευση της Tεχνητής Nοημοσύνης. Ωστόσο, αυτά τα λογισμικά είναι επί πληρωμή, απευθύνονται σε επαγγελματίες και απέχουν πολύ από το να είναι 100% αξιόπιστα.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Στη Le Monde, οι δημοσιογράφοι συνεχίζουν να ελέγχουν τις εικόνες με γυμνό μάτι, και οι συλλογικές συζητήσεις για το θέμα αυτό είναι τακτικές.

Οι έρευνες αυτές επικεντρώνονται κυρίως στα εξής:

  • οι ασύμβατες λεπτομέρειες (δυσανάγνωστο κείμενο, αξεσουάρ ή μέρη του σώματος που εξαφανίζονται, παράλογο στοιχείο στο φόντο…)·
  • οι αναλογίες που δεν τηρούνται (ένα στοιχείο πολύ μεγάλο ή πολύ μικρό…)·
  • οι φυσικές παραλογίες (στραβό πόδι καρέκλας, αντικείμενο που αιωρείται…)·
  • τα λάθη στους διαλόγους (ασυγχρόνιστες κινήσεις των χειλιών, ανάμεικτες γλώσσες…)·
  • οι φωνές ή οι ήχοι που είναι «ρομποτικοί» ή ακούγονται ψεύτικοι.

Χαρακτηριστικό παράδειγμα είναι ένα βίντεο στο Instagram του Λευκού Οίκου με τον Ντόναλντ Τραμπ να παίζει ποδόσφαιρο με τον Κριστιάνο Ρονάλντο.

Αν και τίποτα δεν δείχνει ξεκάθαρα ότι πρόκειται για δημιουργία Τεχνητής Νοημοσύνης, το πρόσωπο του ποδοσφαιριστή, οι κινήσεις της μπάλας και των πρωταγωνιστών, η απουσία ήχων και τα κακά οπτικά εφέ θραύσης γυαλιού στο τέλος δείχνουν ότι πρόκειται για ένα τεχνητό βίντεο, κάτι στο οποίο ο Ντόναλντ Τραμπ είναι συνηθισμένος.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Βέβαια, ορισμένοι δημιουργοί καταφέρνουν να εξαλείψουν τα οπτικά σημάδια της Τεχνητής Νοημοσύνης, επιλέγοντας συγκεκριμένα στιλ βίντεο.

Αυτό συμβαίνει, για παράδειγμα, με εικόνες που αναπαράγουν τον κόκκο των καμερών χαμηλής ποιότητας (παλιό βιντεοκάμερα, βιντεοεπιτήρηση κ.λπ.): Από τη φύση τους θολές, πιξελαρισμένες ή παραμορφωμένες, αυτές οι εικόνες καθιστούν λιγότερο ορατά τα εμφανή ίχνη της Τεχνητής Νοημοσύνης και μπορούν να εξαπατήσουν ευκολότερα τους θεατές.

Σε ένα πρόσφατο παράδειγμα, ψεύτικες εικόνες από κάμερες παρακολούθησης μιας πυραυλικής επίθεσης στο Ιράν, που δημιουργήθηκαν από Τεχνητή Νοημοσύνη και διαδόθηκαν στο X, εξαπάτησαν τους χρήστες του κοινωνικού δικτύου.

Χρησιμοποιήστε την κοινή λογική

Αν ένα βίντεο φαίνεται υπερβολικά όμορφο ή τρελό για να είναι αληθινό, απαιτείται προσοχή. Αυτή η συμβουλή ισχύει πλέον για όλους τους τύπους εικόνων που μπορεί να δείτε, ακόμη και εκείνες που σας στέλνουν κοντινά σας πρόσωπα μέσω μηνυμάτων.

ΤΟ ΑΡΘΡΟ ΣΥΝΕΧΙΖΕΙ ΜΕΤΑ ΤΗΝ ΔΙΑΦΗΜΙΣΗ

Πριν τις μοιραστείτε ή τις θεωρήσετε δεδομένες, μη διστάσετε να περιμένετε μέχρι να είστε σίγουροι ότι η σκηνή συνέβη πραγματικά και να κάνετε τη δική σας έρευνα για να τα επαληθεύσετε όλα.

Για παράδειγμα, συμβουλευτείτε τα σχόλια κάτω από ένα βίντεο, τα οποία μπορεί να αποκαλύψουν ασυνέπειες. Ψάξτε επίσης την ίδια σκηνή δημοσιευμένη από άλλη πηγή, κατά προτίμηση από μέσα ενημέρωσης ή πιστοποιημένους λογαριασμούς, αν οι εικόνες δείχνουν διασημότητες. Ή ακόμα, ρωτήστε το άτομο που δημοσίευσε το βίντεο από πού προέρχεται και με ποιον τρόπο δημιουργήθηκε.

Ακολουθήστε το στο Google News και μάθετε πρώτοι όλες τις ειδήσεις
Δείτε όλες τις τελευταίες Ειδήσεις από την Ελλάδα και τον Κόσμο, στο 
ΣΧΟΛΙΑΣΜΟΣ
Tο iefimerida.gr δημοσιεύει άμεσα κάθε σχόλιο. Ωστόσο δεν υιοθετούμε τις απόψεις αυτές καθώς εκφράζουν αποκλειστικά τον εκάστοτε σχολιαστή. Σχόλια με ύβρεις διαγράφονται χωρίς προειδοποίηση. Χρήστες που δεν τηρούν τους όρους χρήσης αποκλείονται.

ΔΕΙΤΕ ΕΠΙΣΗΣ

ΠΕΡΙΣΣΟΤΕΡΑ