Τα βίντεο που δημιουργούνται με την εφαρμογή Sora της OpenAI κατακλύζουν γρήγορα πλατφόρμες όπως το TikTok και το Instagram Reels, καθιστώντας το συνθετικό περιεχόμενο τεχνητής νοημοσύνης σχεδόν αναπόφευκτο—κάτι που πολλοί χρήστες θεωρούν όλο και πιο ενοχλητικό. Ωστόσο, οι ειδικοί σε θέματα ψηφιακής ασφάλειας προειδοποιούν για μια βαθύτερη, λιγότερο προφανή επίπτωση: η OpenAI έχει ουσιαστικά ξαναβαπτίσει τα deepfakes σε μια παιχνιδιάρικη, κυρίαρχη τάση, που προωθείται έντονα από τα αλγορίθμους συστάσεων. Καθώς εκατομμύρια άνθρωποι συναντούν αυτά τα βίντεο, οι αντιλήψεις για την αλήθεια και τους διαδικτυακούς κανόνες διαμορφώνονται εκ νέου. Η Daisy Soderberg-Rivkin, μια πρώην διαχειρίστρια εμπιστοσύνης και ασφάλειας στο TikTok, περιέγραψε αυτό ως την απόκτησης ενός "δημοσιογραφικού και διανομικού συμβολαίου" για τα deepfakes, ενισχύοντας μια ήδη ανησυχητική τεχνολογία σε μια νέα, τεράστια πλατφόρμα. Ο Aaron Rodericks, επικεφαλής εμπιστοσύνης και ασφαλείας στη Bluesky, προειδοποίησε ότι η κοινωνία δεν είναι έτοιμη για το θόλωμα της γραμμής ανάμεσα στην πραγματικότητα και την ψεύτικη κατασκευή. Τόνισε κινδύνους όπως την εύκολη παραγωγή ψεύτικων αποδεικτικών στοιχείων που στοχεύουν ομάδες ταυτότητας ή άτομα, και τις μεγάλης κλίμακας απάτες, καθώς οι περισσότεροι χρήστες στερούνται την ικανότητα ή τα εργαλεία για να διακρίνουν την αλήθεια από τη φαντασία. Τρεις πρώην υπάλληλοι της OpenAI είπαν στο NPR ότι δεν εκπλήσσονταν από την κυκλοφορία του Sora, βλέποντάς το ως μια στρατηγική κίνηση να παρουσιάσουν καινοτόμο τεχνολογία βίντεο υπό την πίεση επενδυτών, reminiscent της πρεμιέρας του ChatGPT. Η OpenAI εφάρμοσε αρκετά μέτρα ασφαλείας—περιορισμούς, απαγορεύσεις σε απάτες, βία και πορνογραφία, υδατογράφημα και ελέγχους στη χρήση ομοιοτήτων—αν και οι χρήστες συχνά βρίσκουν τρόπους να παρακάμψουν αυτές τις προστασίες, προκαλώντας συνεχείς αντιδράσεις από την εταιρεία. Ένας ανώνυμος πρώην υπάλληλος της OpenAI εξέφρασε την ανησυχία ότι, καθώς ο ανταγωνισμός αυξάνει στην αγορά των κοινωνικών μέσων με βίντεο τεχνητής νοημοσύνης, οι κανόνες ασφαλείας ενδέχεται να χαλαρώνουν, με πιθανές αρνητικές συνέπειες για την κοινωνία. Η Soderberg-Rivkin προέβλεψε ότι εφαρμογές χωρίς κανονισμούς και ασφάλεια, όπως το Sora, θα εμφανιστούν—παρόμοιες με το chatbot Grok του Elon Musk—και πιθανώς θα χρησιμοποιηθούν για τη δημιουργία επιβλαβούς συνθετικού περιεχομένου, όπως υλικό παιδικής σεξουαλικής κακοποίησης ή ρεαλιστική προπαγάνδα που χρηματοδοτείται από το κράτος. Αυτή τη στιγμή, το Sora είναι η κορυφαία εφαρμογή στο iPhone αλλά παραμένει διαθέσιμο μόνο με πρόσκληση.
Οι χρήστες παρατηρούν αυξανόμενους περιορισμούς: η δημιουργία impersonations διασημοτήτων και ακραίων ψεύτικων βίντεο (π. χ. ψεύτικα βίντεο του Jeffrey Epstein ή δηλώσεις φυλακισμένων του Sean “Diddy” Combs) έγινε πιο δύσκολη, αν και το controversial περιεχόμενο όπως συλλήψεις ή ναζιστικές στολές εξακολουθούν να παράγουν βίντεο. Ο CEO της OpenAI, Sam Altman, ανακοίνωσε σχέδια να αλλάξει τη χρήση ομοιωμάτων από “απενεργοποίηση” σε “ενεργοποίηση” και τελικά να μοιράζεται το έσοδο με τους δικαιούχους, στέλνοντας ένα μήνυμα για μια ταχέα εξελισσόμενη προσέγγιση, παρόμοια με την αρχική φάση του ChatGPT. Ο όγκος περιεχομένου τεχνητής νοημοσύνης που κυκλοφορεί εγείρει ερωτήματα για την κόπωση των χρηστών και το αν οι πλατφόρμες θα επιβάλουν κυρώσεις ή θα απαγορεύσουν τέτοιο υλικό. Η Soderberg-Rivkin πιστεύει ότι μια απαγόρευση είναι απίθανη και θα ήταν άσκοπη, καθώς αυξάνονται οι δυσκολίες στον εντοπισμό περιεχομένου τεχνητής νοημοσύνης σε κείμενα, εικόνες και βίντεο. Προειδοποίησε ότι μια πολιτική “χωρίς AI” δεν μπορεί να σταματήσει την εισχώρηση της AI στο διαδίκτυο. Ένας άλλος πρώην υπάλληλος της OpenAI υποστήριξε ότι η κυκλοφορία μιας κοινωνικής εφαρμογής deepfake ήταν μια σοφή επιχειρηματική κίνηση παρά την επιδείνωση της πραγματικότητας, σημειώνοντας ότι ήταν αναπόφευκτο κάποιος να κυριαρχήσει σε αυτήν την αγορά. Ταυτόχρονα, η Meta και η Google έχουν εισάγει ανταγωνιστικά εργαλεία AI βίντεο (Vibes και Veo 3), αλλά η κυκλοφορία του Sora πραγματικά επιτάχυνε την εξάπλωση περιεχομένου βίντεο με τεχνητή νοημοσύνη εξατομικευμένο. Οι ειδικοί εμπιστοσύνης και ασφάλειας θεωρούν το Sora ως μια ιστορική καμπή, όπου τα deepfakes μετατρέπονται από σπάνια παιχνίδια σε καθημερινό ψηφιακό περιεχόμενο, με πιθανές συνέπειες την απομάκρυνση από τα κοινωνικά μέσα ή την κατάρρευση της εμπιστοσύνης στην ακεραιότητα του online περιεχομένου. Οι ειδικοί κατά της παραπληροφόρησης έχουν ήδη προειδοποιήσει για το “dividend του ψεύτη”—όπου τα άφθονα deepfakes επιτρέπουν την απόρριψη αυθεντικού περιεχομένου ως ψεύτικου—αλλά η πραγματικότητα αυτού του φαινομένου είναι τώρα πιο επιτακτική από ποτέ.
Η εφαρμογή Sora της OpenAI επαναστατεί στα βίντεο Deepfake με τεχνητή νοημοσύνη και δημιουργεί ανησυχίες για την ψηφιακή ασφάλεια
Η Liberate, μια νεοφυής επιχείρηση τεχνητής νοημοσύνης που αυτοματοποιεί τις λειτουργίες ασφάλισης, εξασφάλισε 50 εκατομμύρια δολάρια σε γύρο χρηματοδότησης αποκλειστικά με μετοχικό κεφάλαιο, τον ηγείται η Battery Ventures, με στόχο την επέκταση των εφαρμογών τεχνητής νοημοσύνης σε παγκόσμιους φορείς και πρακτορεία.
Οι προόδοι στην τεχνητή νοημοσύνη έχουν εξαχρειώσει την τεχνολογία των deepfake σε ένα εξελιγμένο επίπεδο, επιτρέποντας τη δημιουργία ιδιαίτερα ρεαλιστικών τροποποιημένων βίντεο που συχνά είναι αδύνατο να διακριθούν από αυθεντικά πλάνα.
Η προπώληση του Lightchain AI (LCAI) συγκεντρώνει σημαντική προσοχή στην αγορά κρυπτονομισμάτων, προσφέροντας πρώιμη επένδυση με μόλις 0,003 δολάρια ανά token.
Η startup τεχνητής νοημοσύνης Anthropic βρίσκεται σε καλό δρόμο να ενισχύσει σημαντικά την οικονομική της απόδοση τα επόμενα χρόνια, με στόχο ένα φιλόδοξο ρυθμό εσόδων μεταξύ 20 δισεκατομμυρίων και 26 δισεκατομμυρίων δολαρίων έως το 2026.
Στο ταχύτατα εξελισσόμενο ψηφιακό τοπίο, οι μηχανές αναζήτησης μετασχηματίζονται ενσωματώνοντας προηγμένη τεχνητή νοημοσύνη (ΤΝ) στους βασικούς αλγόριθμούς τους, προκειμένου να βελτιώσουν την ακρίβεια και τη σχετικότητα των αποτελεσμάτων αναζήτησης.
Ένα απαραίτητο συστατικό αυτού του ιστότοπου δεν κατάφερε να φορτωθεί.
Οι διαλογικοί Τεχνητές Νοημοσύνες όπως το ChatGPT, το Perplexity και το Google AI Mode δημιουργούν αποσπάσματα και περιλήψεις όχι με την κατασκευή κειμένου από το μηδέν, αλλά επιλέγοντας, συμπυκνώνοντας και ανασυνθέτοντας υπάρχοντες περιεχόμενους σε ιστοσελίδες.
Automate Marketing, Sales, SMM & SEO
and get clients on autopilot — from social media and search engines. No ads needed
and get clients today