Πώς να αναγνωρίζουμε περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη

Η πρόκληση της αναγνώρισης περιεχομένου AI

Στις πρόσφατες εβδομάδες, τα κοινωνικά δίκτυα έχουν πλημμυρίσει από εντυπωσιακά βίντεο που φαίνονται εξαιρετικά ρεαλιστικά, πολλά από τα οποία έχουν παραχθεί με τη βοήθεια της τεχνητής νοημοσύνης Sora2 της OpenAI. Αυτά τα βίντεο ποικίλλουν από αναπαραστάσεις πλάνων από κάμερες ασφαλείας μέχρι αποσπάσματα ντοκιμαντέρ για ζώα, αλλά έχουν ένα κοινό χαρακτηριστικό: είναι όλα δημιουργημένα από AI.

Η διάδοση και οι επιπτώσεις

Παρά το γεγονός ότι το λογισμικό Sora 2 είναι επί του παρόντος διαθέσιμο μόνο στις Ηνωμένες Πολιτείες και τον Καναδά, οι παραγωγές του έχουν ήδη κατακλύσει τα social media παγκοσμίως, όπως αναφέρει η γαλλόφωνη δημόσια ελβετική τηλεόραση RTS. Αυτή η κατάσταση εγείρει σοβαρά ερωτήματα σχετικά με την αξιοπιστία των εικόνων που κυκλοφορούν στο διαδίκτυο. Η OpenAI έχει ήδη δεχθεί κριτική για την αναπαραγωγή βίντεο που περιλαμβάνουν την εικόνα διασήμων, ακόμα και αποθανόντων, χωρίς τη συναίνεση τους ή την τήρηση των πνευματικών δικαιωμάτων.

Ο ψυχολόγος και ψυχοθεραπευτής Νιλς Βέμπερ, που μίλησε σε ραδιοφωνική εκπομπή της RTS, εξήγησε γιατί οι ψεύτικες εικόνες είναι τόσο πειστικές: «Ο εγκέφαλός μας είναι εύκολο να παραπλανηθεί· μπορεί να πιστέψει πράγματα χωρίς πολλές δυσκολίες». Σύγκρινε αυτό το φαινόμενο με τις πρώτες κινηματογραφικές ψευδαισθήσεις του Ζορζ Μελιές, ο οποίος χρησιμοποίησε καινοτόμες τεχνικές για να δημιουργήσει φανταστικές εικόνες στον κινηματογράφο.

Η σημασία της εκπαίδευσης στα ΜΜΕ

Ο Βέμπερ υποστηρίζει ότι πρέπει να αμφισβητούμε οτιδήποτε βλέπουμε στα κοινωνικά δίκτυα. Η εκπαίδευση στα μέσα ενημέρωσης πρέπει να ενισχυθεί, τόσο για τα παιδιά όσο και για τους ενήλικες, ώστε να μπορούν να αναγνωρίζουν τις ασυνέπειες και τις αφύσικες συμπεριφορές. Ως παράδειγμα, ανέφερε ένα ψεύτικο βίντεο που δείχνει μια αρκούδα να μπαίνει σε τουαλέτα, αναρωτώμενος γιατί θα υπήρχε κάμερα σε ένα τέτοιο μέρος.

Είναι σημαντικό να δίνουμε προσοχή στις λεπτομέρειες των βίντεο και των εικόνων, καθώς παραμορφώσεις ή αφύσικες κινήσεις μπορεί να υποδεικνύουν ότι το περιεχόμενο έχει παραχθεί τεχνητά. Το Sora 2 προσθέτει συνήθως ένα υδατογράφημα στα βίντεο που δημιουργεί, αλλά πολλοί χρήστες το αφαιρούν, γεγονός που απαιτεί ακόμη μεγαλύτερη προσοχή από τους θεατές.

Επιπλέον, υπάρχουν λογαριασμοί στα κοινωνικά δίκτυα που παρέχουν συμβουλές για την αναγνώριση ψεύτικων εικόνων και βίντεο, ενώ ορισμένα διαδικτυακά βίντεο εξηγούν τεχνικές εντοπισμού περιεχομένου που έχει παραχθεί από AI. Η RTS επισημαίνει ότι η υπερβολική διάδοση τέτοιου περιεχομένου μπορεί να οδηγήσει σε κόπωση των χρηστών. Στην Ευρώπη, η OpenAI θα πρέπει να συμμορφωθεί με αυστηρούς κανονισμούς, αλλά αναμένονται και άλλες παρόμοιες εφαρμογές που δεν θα έχουν επαρκή μέτρα προστασίας, αυξάνοντας τον κίνδυνο παραπληροφόρησης.

Για να αποφευχθούν οι ψευδείς ειδήσεις, η απομάκρυνση από τα κοινωνικά δίκτυα μπορεί να είναι μια λύση, αν και ο Βέμπερ τονίζει ότι αυτό δεν θα είναι απαραίτητα μια συνειδητή επιλογή, αλλά μια φυσική εξέλιξη, καθώς οι χρήστες θα κουραστούν να αμφισβητούν συνεχώς ό,τι βλέπουν.

Η ΨΗΦΙΑΚΗ ΣΑΣ ΕΠΙΚΟΙΝΩΝΙΑ

Στοιχεία επικοινωνίας

Μέλος του emedia

© 2025 – ONCAMERA.gr