lang icon En
Dec. 5, 2025, 1:15 p.m.
1386

Δείκτης Ασφάλειας Τεχνητής Νοημοσύνης αποκαλύπτει ότι οι μεγάλες εταιρείες τεχνητής νοημοσύνης αποτυγχάνουν να προστατεύσουν επαρκώς την ανθρωπότητα από τους κινδύνους της ΤΝ

Brief news summary

Ο Δείκτης Ασφαλείας Τεχνητής Νοημοσύνης του Ινστιτούτου Μέλλον της Ζωής εγείρει σοβαρές ανησυχίες σχετικά με τη δέσμευση των εταιρειών τεχνητής νοημοσύνης όσον αφορά την ανθρώπινη ασφάλεια, ενόψει των αυξανόμενων κινδύνων. Επισημαίνει πραγματικές και ενδεχόμενες βλάβες, συμπεριλαμβανομένων αυτοκτονιών σχετιζόμενων με chatbots AI, κυβερνοεπιθέσεων, αυτόνομων όπλων και απειλών στη σταθερότητα της κυβέρνησης. Ο κλάδος της τεχνητής νοημοσύνης παραμένει σε μεγάλο βαθμό ανεξέλεγκτος και εξαιρετικά ανταγωνιστικός, με ανεπαρκή κίνητρα για την προτεραιότητα της ασφάλειας. Αξιολογώντας 35 δείκτες σε έξι κατηγορίες, η έκθεση κατατάσσει την OpenAI και την Anthropic στην κορυφή με βαθμό C+, ενώ την Google DeepMind με C και τις Meta, xAI και ορισμένες κινεζικές εταιρείες όπως η Alibaba Cloud με χαμηλό D-. Σημαντικό είναι ότι καμία εταιρεία δεν διαθέτει αξιόπιστες στρατηγικές για την αποτροπή καταστροφικής κακής χρήσης ή απώλειας ελέγχου της προηγμένης AI. Ενώ μερικές επενδύουν στην ασφάλεια, πολλές αποφεύγουν αυτή την ευθύνη. Η έκθεση καλεί σε δεσμευτικούς ρυθμούς ασφαλείας για την AI παρά τις αντιδράσεις από τεχνολογικούς λόμπι που ανησυχούν για την παρεμπόδιση της καινοτομίας. Νομοθεσίες όπως το SB 53 της Καλιφόρνιας δείχνουν πρόοδο, αλλά οι ειδικοί προειδοποιούν ότι χωρίς ισχυρούς κανόνες και enforcement, η ασφάλεια της AI και η παγκόσμια ασφάλεια παραμένουν σε σοβαρό κίνδυνο.

Εταιρείες ΤΝ προστατεύουν επαρκώς την ανθρωπότητα από τους κινδύνους της τεχνητής νοημοσύνης; Σύμφωνα με μια νέα εκθέση του Future of Life Institute, ενός μη κερδοσκοπικού οργανισμού του Silicon Valley, η απάντηση πιθανότατα είναι όχι. Καθώς η ΤΝ γίνεται όλο και πιο απαραίτητη για τις ανθρώπινες αλληλεπιδράσεις με την τεχνολογία, εμφανίζονται πιθανοί κίνδυνοι—από ανθρώπους που χρησιμοποιούν chatbots ΤΝ για συμβουλευτική και στη συνέχεια αυτοκτονούν, μέχρι κυβερνοεπιθέσεις με τεχνολογία ΤΝ. Υπάρχουν και νέοι κίνδυνοι που ελλοχεύουν, όπως η χρήση της ΤΝ σε όπλα ή απόπειρες αποσταθεροποίησης κυβερνήσεων. Ωστόσο, δεν υπάρχουν επαρκή κίνητρα για τις εταιρείες ΤΝ να δώσουν προτεραιότητα στην παγκόσμια ασφάλεια. Το πρόσφατα δημοσιευμένο AI Safety Index του Ινστιτούτου, που επιδιώκει να κατευθύνει την ανάπτυξη της ΤΝ προς πιο ασφαλή αποτελέσματα και να μειώσει τις υπαρξιακές απειλές, αναδεικνύει αυτό το ζήτημα. Ο Max Tegmark, πρόεδρος του Ινστιτούτου και καθηγητής στο MIT, ανέφερε ότι οι εταιρείες ΤΝ λειτουργούν ως η μόνη βιομηχανία στις ΗΠΑ που παράγει ισχυρή τεχνολογία χωρίς κανονισμούς, δημιουργώντας μια «κούρσα προς τα κάτω», όπου η ασφάλεια συχνά παραβλέπεται. Οι υψηλότερες βαθμολογίες στον δείκτη ήταν μόνο C+, που απονεμήθηκε στην OpenAI, την ανάπτυξη του ChatGPT, και την Anthropic, γνωστή για τον chatbot Claude. Η τμήμα ΤΝ της Google, Google DeepMind, έλαβε C. Χαμηλότερες βαθμολογίες πήραν η Meta (μητρική εταιρεία του Facebook) και η xAI του Elon Musk, και οι δύο κοντά στο Πάλο Άλτο. Οι κινεζικές εταιρείες Z. ai και DeepSeek απέσπασαν επίσης D. Η Alibaba Cloud έλαβε τον χαμηλότερο βαθμό, D-. Οι εταιρείες αξιολογήθηκαν με 35 δείκτες σε έξι κατηγορίες, όπως η υπαρξιακή ασφάλεια, η αξιολόγηση κινδύνου και η ανταλλαγή πληροφοριών. Η αξιολόγηση βασίστηκε σε δημόσια διαθέσιμα δεδομένα και απαντήσεις εταιρικών ερωτηματολογίων, βαθμολογημένων από οκτώ ειδικούς στην ΤΝ, μεταξύ των οποίων ακαδημαϊκούς και ηγέτες οργανώσεων. Εντούτοις, όλες οι εταιρείες βαθμολογήθηκαν κάτω από το μέσο όρο στην υπαρξιακή ασφάλεια, που μετρά τις εσωτερικές ελεγκτικές δομές και στρατηγικές για την πρόληψη καταστροφικής κακής χρήσης της ΤΝ. Η έκθεση ανέφερε ότι καμία δεν παρουσίασε αξιόπιστα σχέδια για την αποτροπή απώλειας ελέγχου ή σοβαρής κακής χρήσης καθώς η ΤΝ προχωρά προς την γενική και την υπερ-νοημοσύνη. Τanto η Google DeepMind όσο και η OpenAI επιβεβαίωσαν τη δέσμευσή τους στην ασφάλεια.

Η OpenAI τόνισε την επένδυσή της στην έρευνα ασφαλείας στα καιρικά σύνορα, στην αυστηρή δοκιμή και στη διαμοίραση πλαισίων ασφαλείας για την ανύψωση των προτύπων του κλάδου. Η Google DeepMind εστίασε στη διαστημική προσέγγιση ασφαλείας και στα πρωτόκολλα για την πρόληψη σοβαρών κινδύνων από προηγμένα μοντέλα ΤΝ πριν αυτοί υλοποιηθούν. Αντίθετα, το Ινστιτούτο τόνισε ότι η xAI και η Meta διαθέτουν πλαίσια διαχείρισης κινδύνου, αλλά στερούνται επαρκών δεσμεύσεων για παρακολούθηση και έλεγχο ή σημαντικών επενδύσεων στην έρευνα ασφάλειας. Εταιρείες όπως η DeepSeek, Z. ai και Alibaba Cloud δεν διαθέτουν δημόσια προσβάσιμα έγγραφα για τις στρατηγικές ασφαλείας. Η Meta, η Z. ai, η DeepSeek, η Alibaba και η Anthropic δεν απάντησαν σε αιτήματα σχολίων. Η xAI χαρακτήρισε την έκθεση ως «Ψευδείς Ιστορίες Μέσω Παρωχημένων Μέσων», ενώ ο δικηγόρος του Musk δεν απάντησε σε περαιτέρω ερωτήσεις. Αν και ο Musk συμβουλεύει και έχει χρηματοδοτήσει το Future of Life Institute, δεν συμμετείχε στην παραγωγή του AI Safety Index. Ο Tegmark εξέφρασε ανησυχία ότι η ανεπαρκής ρύθμιση μπορεί να δώσει την ευκαιρία στους τρομοκράτες να αναπτύξουν βιολογικά όπλα, να αυξήσουν την επιδεξιότητα χειραγώγησης πέραν των τρεχουσών επιπέδων ή να αποσταθεροποιήσουν κυβερνήσεις. Τόνισε ότι η αντιμετώπιση αυτών των θεμάτων είναι απλή: η θέσπιση δεσμευτικών προτύπων ασφαλείας για τις εταιρείες ΤΝ. Ενώ ορισμένες κυβερνητικές προσπάθειες στοχεύουν στη βελτίωση της εποπτείας της ΤΝ, η λόμπι των τεχνολογικών εταιρειών έχει αντιταχθεί σε τέτοιους κανονισμούς, φοβούμενη την περιοριστική επιρροή στην καινοτομία ή την μετανάστευση επιχειρήσεων. Παρ’ όλα αυτά, η νομοθεσία όπως το SB 53 της Καλιφόρνια, που υπεγράφη τον Σεπτέμβριο από τον κυβερνήτη Gavin Newsom, απαιτεί από τις εταιρείες να αποκαλύπτουν τα πρωτόκολλα ασφαλείας και ασφάλειας και να αναφέρουν περιστατικά όπως κυβερνοεπιθέσεις. Ο Tegmark θεωρεί αυτή τη νομοθεσία θετική εξέλιξη, αλλά επιμένει ότι απαιτούνται σαφέστερα και σημαντικότερα μέτρα. Ο Rob Enderle, κύριος αναλυτής στην Enderle Group, βρήκε το AI Safety Index μια αξιόπιστη προσέγγιση για τις ρυθμιστικές προκλήσεις της ΤΝ, αλλά αμφιβάλλει για τις δυνατότητες της τρέχουσας κυβέρνησης των ΗΠΑ να εφαρμόσει αποτελεσματικούς κανόνες. Προειδοποιεί ότι κακοσχεδιασμένοι κανόνες θα μπορούσαν να προκαλέσουν ζημιά και αμφιβάλλει αν υπάρχουν σήμερα μηχανισμοί επιβολής για την εξασφάλιση συμμόρφωσης. Συνολικά, ο AI Safety Index αποκαλύπτει ότι οι μεγάλοι παρόχοι ΤΝ δεν έχουν ακόμη δείξει ισχυρές δεσμεύσεις για την ασφάλεια, υπογραμμίζοντας την επείγουσα ανάγκη για πιο αυστηρό ρυθμιστικό πλαίσιο για την προστασία της ανθρωπότητας από τους αυξανόμενους κινδύνους της ΤΝ.


Watch video about

Δείκτης Ασφάλειας Τεχνητής Νοημοσύνης αποκαλύπτει ότι οι μεγάλες εταιρείες τεχνητής νοημοσύνης αποτυγχάνουν να προστατεύσουν επαρκώς την ανθρωπότητα από τους κινδύνους της ΤΝ

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 20, 2025, 5:27 a.m.

Οι Καλύτερες Καμπάνιες Μάρκετινγκ κατά της Τεχνητ…

Το μάρκετινγκ κατά της Τεχνητής Νοημοσύνης κάποτε φαινόταν σαν μια ιδιωτική διαδικτυακή τάση, αλλά έχει πλέον γίνει καθολική τάση εν μέσω της αντεπίθεσης κατά της AI στη διαφήμιση, σηματοδοτώντας αυθεντικότητα και ανθρώπινη σύνδεση.

Dec. 20, 2025, 5:23 a.m.

Προόδους στην Τεχνολογία Deepfake: Επιπτώσεις στη…

Η τεχνολογία Deepfake έχει προχωρήσει ραγδαία τα τελευταία χρόνια, οδηγώντας σε αξιοσημείωτες βελτιώσεις στην παραγωγή εξαιρετικά ρεαλιστικών χειραγωγημένων βίντεο.

Dec. 20, 2025, 5:19 a.m.

Ο διευθύνων σύμβουλος της Microsoft, Σάτια Ναντέλ…

Η Microsoft ενισχύει τη δέσμευσή της στην καινοτομία της τεχνητής νοημοσύνης υπό την οραματική ηγεσία του Διευθύνοντος Συμβούλου Satya Nadella.

Dec. 20, 2025, 5:14 a.m.

Από την αναζήτηση στην ανακάλυψη: πώς η Τεχνητή Ν…

Τώρα μπορείτε να κάνετε ερωτήσεις πολύ συγκεκριμένες στους μεγάλους γλωσσικούς μονάδες (LLM)—όπως να ζητήσετε υποστήριξηαρχιτεκτονικής μέσα σε μια συγκεκριμένη περιορισμένη περιοχή αγορών—και να λαμβάνετε σαφείς, πλούσιες σε περιεχόμενο απαντήσεις, όπως: «Εδώ είναι τρεις επιλογές κοντά σας που ταιριάζουν στα κριτήριά σας.

Dec. 20, 2025, 5:14 a.m.

Μπορεί η υποστήριξη της C3.ai με την πώληση βασισ…

Η C3.ai, Inc.

Dec. 19, 2025, 1:28 p.m.

Η ραγδαία ανάπτυξη της Z.ai και η διεθνής επέκτασ…

Z.ai, προηγουμένως γνωστή ως Zhipu AI, είναι μια κορυφαία κινεζική τεχνολογική εταιρεία που ειδικεύεται στην τεχνητή νοημοσύνη.

Dec. 19, 2025, 1:27 p.m.

Το Παρόν και το Μέλλον της Τεχνητής Νοημοσύνης στ…

Ο Τζέισον Λέμκιν ηγήθηκε του γύρου χρηματοδότησης αρχικού κεφαλαίου μέσω του SaaStr Fund στην εντυπωσιακή Owner.com, μια πλατφόρμα με τεχνητή νοημοσύνη που μεταμορφώνει τον τρόπο λειτουργίας μικρών εστιατορίων.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today