Εταιρείες ΤΝ προστατεύουν επαρκώς την ανθρωπότητα από τους κινδύνους της τεχνητής νοημοσύνης; Σύμφωνα με μια νέα εκθέση του Future of Life Institute, ενός μη κερδοσκοπικού οργανισμού του Silicon Valley, η απάντηση πιθανότατα είναι όχι. Καθώς η ΤΝ γίνεται όλο και πιο απαραίτητη για τις ανθρώπινες αλληλεπιδράσεις με την τεχνολογία, εμφανίζονται πιθανοί κίνδυνοι—από ανθρώπους που χρησιμοποιούν chatbots ΤΝ για συμβουλευτική και στη συνέχεια αυτοκτονούν, μέχρι κυβερνοεπιθέσεις με τεχνολογία ΤΝ. Υπάρχουν και νέοι κίνδυνοι που ελλοχεύουν, όπως η χρήση της ΤΝ σε όπλα ή απόπειρες αποσταθεροποίησης κυβερνήσεων. Ωστόσο, δεν υπάρχουν επαρκή κίνητρα για τις εταιρείες ΤΝ να δώσουν προτεραιότητα στην παγκόσμια ασφάλεια. Το πρόσφατα δημοσιευμένο AI Safety Index του Ινστιτούτου, που επιδιώκει να κατευθύνει την ανάπτυξη της ΤΝ προς πιο ασφαλή αποτελέσματα και να μειώσει τις υπαρξιακές απειλές, αναδεικνύει αυτό το ζήτημα. Ο Max Tegmark, πρόεδρος του Ινστιτούτου και καθηγητής στο MIT, ανέφερε ότι οι εταιρείες ΤΝ λειτουργούν ως η μόνη βιομηχανία στις ΗΠΑ που παράγει ισχυρή τεχνολογία χωρίς κανονισμούς, δημιουργώντας μια «κούρσα προς τα κάτω», όπου η ασφάλεια συχνά παραβλέπεται. Οι υψηλότερες βαθμολογίες στον δείκτη ήταν μόνο C+, που απονεμήθηκε στην OpenAI, την ανάπτυξη του ChatGPT, και την Anthropic, γνωστή για τον chatbot Claude. Η τμήμα ΤΝ της Google, Google DeepMind, έλαβε C. Χαμηλότερες βαθμολογίες πήραν η Meta (μητρική εταιρεία του Facebook) και η xAI του Elon Musk, και οι δύο κοντά στο Πάλο Άλτο. Οι κινεζικές εταιρείες Z. ai και DeepSeek απέσπασαν επίσης D. Η Alibaba Cloud έλαβε τον χαμηλότερο βαθμό, D-. Οι εταιρείες αξιολογήθηκαν με 35 δείκτες σε έξι κατηγορίες, όπως η υπαρξιακή ασφάλεια, η αξιολόγηση κινδύνου και η ανταλλαγή πληροφοριών. Η αξιολόγηση βασίστηκε σε δημόσια διαθέσιμα δεδομένα και απαντήσεις εταιρικών ερωτηματολογίων, βαθμολογημένων από οκτώ ειδικούς στην ΤΝ, μεταξύ των οποίων ακαδημαϊκούς και ηγέτες οργανώσεων. Εντούτοις, όλες οι εταιρείες βαθμολογήθηκαν κάτω από το μέσο όρο στην υπαρξιακή ασφάλεια, που μετρά τις εσωτερικές ελεγκτικές δομές και στρατηγικές για την πρόληψη καταστροφικής κακής χρήσης της ΤΝ. Η έκθεση ανέφερε ότι καμία δεν παρουσίασε αξιόπιστα σχέδια για την αποτροπή απώλειας ελέγχου ή σοβαρής κακής χρήσης καθώς η ΤΝ προχωρά προς την γενική και την υπερ-νοημοσύνη. Τanto η Google DeepMind όσο και η OpenAI επιβεβαίωσαν τη δέσμευσή τους στην ασφάλεια.
Η OpenAI τόνισε την επένδυσή της στην έρευνα ασφαλείας στα καιρικά σύνορα, στην αυστηρή δοκιμή και στη διαμοίραση πλαισίων ασφαλείας για την ανύψωση των προτύπων του κλάδου. Η Google DeepMind εστίασε στη διαστημική προσέγγιση ασφαλείας και στα πρωτόκολλα για την πρόληψη σοβαρών κινδύνων από προηγμένα μοντέλα ΤΝ πριν αυτοί υλοποιηθούν. Αντίθετα, το Ινστιτούτο τόνισε ότι η xAI και η Meta διαθέτουν πλαίσια διαχείρισης κινδύνου, αλλά στερούνται επαρκών δεσμεύσεων για παρακολούθηση και έλεγχο ή σημαντικών επενδύσεων στην έρευνα ασφάλειας. Εταιρείες όπως η DeepSeek, Z. ai και Alibaba Cloud δεν διαθέτουν δημόσια προσβάσιμα έγγραφα για τις στρατηγικές ασφαλείας. Η Meta, η Z. ai, η DeepSeek, η Alibaba και η Anthropic δεν απάντησαν σε αιτήματα σχολίων. Η xAI χαρακτήρισε την έκθεση ως «Ψευδείς Ιστορίες Μέσω Παρωχημένων Μέσων», ενώ ο δικηγόρος του Musk δεν απάντησε σε περαιτέρω ερωτήσεις. Αν και ο Musk συμβουλεύει και έχει χρηματοδοτήσει το Future of Life Institute, δεν συμμετείχε στην παραγωγή του AI Safety Index. Ο Tegmark εξέφρασε ανησυχία ότι η ανεπαρκής ρύθμιση μπορεί να δώσει την ευκαιρία στους τρομοκράτες να αναπτύξουν βιολογικά όπλα, να αυξήσουν την επιδεξιότητα χειραγώγησης πέραν των τρεχουσών επιπέδων ή να αποσταθεροποιήσουν κυβερνήσεις. Τόνισε ότι η αντιμετώπιση αυτών των θεμάτων είναι απλή: η θέσπιση δεσμευτικών προτύπων ασφαλείας για τις εταιρείες ΤΝ. Ενώ ορισμένες κυβερνητικές προσπάθειες στοχεύουν στη βελτίωση της εποπτείας της ΤΝ, η λόμπι των τεχνολογικών εταιρειών έχει αντιταχθεί σε τέτοιους κανονισμούς, φοβούμενη την περιοριστική επιρροή στην καινοτομία ή την μετανάστευση επιχειρήσεων. Παρ’ όλα αυτά, η νομοθεσία όπως το SB 53 της Καλιφόρνια, που υπεγράφη τον Σεπτέμβριο από τον κυβερνήτη Gavin Newsom, απαιτεί από τις εταιρείες να αποκαλύπτουν τα πρωτόκολλα ασφαλείας και ασφάλειας και να αναφέρουν περιστατικά όπως κυβερνοεπιθέσεις. Ο Tegmark θεωρεί αυτή τη νομοθεσία θετική εξέλιξη, αλλά επιμένει ότι απαιτούνται σαφέστερα και σημαντικότερα μέτρα. Ο Rob Enderle, κύριος αναλυτής στην Enderle Group, βρήκε το AI Safety Index μια αξιόπιστη προσέγγιση για τις ρυθμιστικές προκλήσεις της ΤΝ, αλλά αμφιβάλλει για τις δυνατότητες της τρέχουσας κυβέρνησης των ΗΠΑ να εφαρμόσει αποτελεσματικούς κανόνες. Προειδοποιεί ότι κακοσχεδιασμένοι κανόνες θα μπορούσαν να προκαλέσουν ζημιά και αμφιβάλλει αν υπάρχουν σήμερα μηχανισμοί επιβολής για την εξασφάλιση συμμόρφωσης. Συνολικά, ο AI Safety Index αποκαλύπτει ότι οι μεγάλοι παρόχοι ΤΝ δεν έχουν ακόμη δείξει ισχυρές δεσμεύσεις για την ασφάλεια, υπογραμμίζοντας την επείγουσα ανάγκη για πιο αυστηρό ρυθμιστικό πλαίσιο για την προστασία της ανθρωπότητας από τους αυξανόμενους κινδύνους της ΤΝ.
Δείκτης Ασφάλειας Τεχνητής Νοημοσύνης αποκαλύπτει ότι οι μεγάλες εταιρείες τεχνητής νοημοσύνης αποτυγχάνουν να προστατεύσουν επαρκώς την ανθρωπότητα από τους κινδύνους της ΤΝ
Το μάρκετινγκ κατά της Τεχνητής Νοημοσύνης κάποτε φαινόταν σαν μια ιδιωτική διαδικτυακή τάση, αλλά έχει πλέον γίνει καθολική τάση εν μέσω της αντεπίθεσης κατά της AI στη διαφήμιση, σηματοδοτώντας αυθεντικότητα και ανθρώπινη σύνδεση.
Η τεχνολογία Deepfake έχει προχωρήσει ραγδαία τα τελευταία χρόνια, οδηγώντας σε αξιοσημείωτες βελτιώσεις στην παραγωγή εξαιρετικά ρεαλιστικών χειραγωγημένων βίντεο.
Η Microsoft ενισχύει τη δέσμευσή της στην καινοτομία της τεχνητής νοημοσύνης υπό την οραματική ηγεσία του Διευθύνοντος Συμβούλου Satya Nadella.
Τώρα μπορείτε να κάνετε ερωτήσεις πολύ συγκεκριμένες στους μεγάλους γλωσσικούς μονάδες (LLM)—όπως να ζητήσετε υποστήριξηαρχιτεκτονικής μέσα σε μια συγκεκριμένη περιορισμένη περιοχή αγορών—και να λαμβάνετε σαφείς, πλούσιες σε περιεχόμενο απαντήσεις, όπως: «Εδώ είναι τρεις επιλογές κοντά σας που ταιριάζουν στα κριτήριά σας.
Η C3.ai, Inc.
Z.ai, προηγουμένως γνωστή ως Zhipu AI, είναι μια κορυφαία κινεζική τεχνολογική εταιρεία που ειδικεύεται στην τεχνητή νοημοσύνη.
Ο Τζέισον Λέμκιν ηγήθηκε του γύρου χρηματοδότησης αρχικού κεφαλαίου μέσω του SaaStr Fund στην εντυπωσιακή Owner.com, μια πλατφόρμα με τεχνητή νοημοσύνη που μεταμορφώνει τον τρόπο λειτουργίας μικρών εστιατορίων.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today