Συζήτηση για το Μέλλον της Τεχνητής Νοημοσύνης: Αποκάλυψη ή Κανονικότητα; Συσχετισμοί από κορυφαίους ειδικούς

Τις προηγούμενες άνοιξες, ο Ντάνιελ Κοκοτάιλο, ερευνητής ασφάλειας τεχνητής νοημοσύνης στην OpenAI, αποχώρησε διαμαρτυρόμενος, πιστεύοντας ότι η εταιρεία δεν ήταν έτοιμη για το μέλλον της AI και προσπαθώντας να αφυπνίσει. Σε μια τηλεφωνική συζήτηση, φαινόταν ευχάριστος αλλά ανήσυχος, εξηγώντας ότι η πρόοδος στην «ευθυγράμμιση» της AI—οι μέθοδοι διασφάλισης ότι η AI ακολουθεί ανθρώπινες αξίες—υστερεί σε σχέση με τις εξελίξεις στην ευφυΐα. Προειδοποίησε ότι οι ερευνητές βιάζονται να δημιουργήσουν ισχυρά συστήματα εκτός ελέγχου. Ο Κοκοτάιλο, που πέρασε από μονοπάτια φιλοσοφίας σε AI, αυτοδίδαξε τον εαυτό του να παρακολουθεί την εξέλιξη της AI και να προβλέπει πότε μπορεί να συμβούν κρίσιμα ορόσημα ευφυΐας. Μετά την ταχύτερη από την αναμενόμενη πρόοδο της AI, ανέβαλε τα χρονοδιαγράμματα του κατά δεκαετίες. Το σενάριό του το 2021, «Πώς φαίνεται το 2026», προέβλεψε πολλές από τις προφητείες να πραγματοποιούνται νωρίς, οδηγώντας τον να φοβηθεί το 2027 ή νωρίτερα ένα «σημείο χωρίς επιστροφή», όπου η AI θα μπορούσε να ξεπεράσει τους ανθρώπους στα πιο ζωτικά καθήκοντα και να αποκτήσει μεγάλη δύναμη. Φαινόταν τρομοκρατημένος. Παράλληλα, οι υπολογιστές του Princeton, Sayash Kapoor και Arvind Narayanan, ετοίμασαν το βιβλίο τους «AI Snake Oil» (Μαριονέτα της AI), που παρουσίαζε μια πολύ διαφορετική άποψη. Υποστήριξαν ότι τα χρονοδιαγράμματα για την AI ήταν υπερβολικά αισιόδοξα, ότι οι ισχυρισμοί για την χρησιμότητά της συχνά υπερεκτιμούνταν ή ήταν ψευδείς και ότι η πολυπλοκότητα του πραγματικού κόσμου θα καθυστηρούσε την μετασχηματιστική επίδραση της AI. Αναφέροντας παραδείγματα λαθών στην ιατρική και την πρόσληψη, τόνισαν ότι ακόμα και τα νεότερα συστήματα έχουν θεμελιωδώς απομακρυνθεί από την πραγματικότητα. Πρόσφατα, και οι τρεις ενίσχυσαν τις απόψεις τους με νέα στάδια. Το μη κερδοσκοπικό έργο «AI Futures Project» του Κοκοτάιλο δημοσίευσε το «AI 2027», μια λεπτομερή, πλούσια σε παραπομπές αναφορά που περιγράφει ένα τρομακτικό σενάριο κατά το οποίο η υπερ-νοημοσύνη της AI θα μπορούσε να κυριαρχήσει ή να εξαφανίσει την ανθρωπότητα μέχρι το 2030—μια σοβαρή προειδοποίηση. Την ίδια στιγμή, η μελέτη των Kapoor και Narayanan «AI ως Κανονική Τεχνολογία» υποστηρίζει ότι τα πρακτικά εμπόδια—από κανονισμούς και πρότυπα ασφαλείας μέχρι φυσικούς περιορισμούς—θα επιβραδύνουν την εφαρμογή της AI και θα περιορίσουν τον επαναστατικό της αντίκτυπο. Θεωρούν ότι η AI θα παραμείνει «κανονική» τεχνολογία, διαχειρίσιμη μέσω γνωστών μέτρων ασφαλείας όπως το διακόπτη τερματισμού και η ανθρώπινη εποπτεία, περισσότερο σαν την πυρηνική ενέργεια παρά τα πυρηνικά όπλα. Άρα, ποιο θα είναι τελικά; Κανονική επιχειρηματικότητα ή καταστροφική ανατροπή; Τα ακραία, ριζικά συμπεράσματα—που προέρχονται από τους ενόρκως ειδικούς—δημιουργούν ένα παράδοξο σαν να συζητάς πνευματικότητα με τον Ρίτσαρντ Ντόκινς και τον Πάπα. Το πρόβλημα οφείλεται εν μέρει στη νέα φύση της AI—σαν τυφλοί που εξετάζουν διαφορετικά μέρη ενός ελέφαντα—και εν μέρει στις βαθιές διαφορές κόσμου. Γενικά, οι τεχνολογικοί στοχαστές της Δυτικής Ακτής οραματίζονται γρήγορη μεταμόρφωση, ενώ οι ακαδημαϊκοί της Ανατολικής Ακτής είναι πιο σκεπτικοί. Οι ερευνητές της AI προτιμούν γρήγορους πειραματισμούς, ενώ άλλοι επιστήμονες υποστηρίζουν την θεωρητική ακρίβεια. Οι βιομηχανικοί παίκτες θέλουν να κάνουν την ιστορία, οι outsiders απορρίπτουν την διαφημιστικά hype. Πολιτικές, ανθρώπινες και φιλοσοφικές απόψεις για την τεχνολογία, την εξέλιξη και τη διάνοια διευρύνουν το χάσμα. Αυτή η συναρπαστική συζήτηση αποτελεί και από μόνη της ένα πρόβλημα. Οι επαγγελματίες της βιομηχανίας αποδέχονται σε μεγάλο βαθμό τις προϋποθέσεις του «AI 2027», αλλά διαφωνούν σχετικά με τα χρονοδιαγράμματα—ένα αναποτελεσματικό παράδειγμα σαν να διαφωνείς για την ώρα που θα χτυπήσει ένας πλανητικός όλεθρος. Αντίθετα, οι μετριοπαθείς απόψεις του «AI ως Κανονική Τεχνολογία», που εστιάζουν στη διατήρηση των ανθρώπων μέσα στη διαδικασία, είναι τόσο υποτονικές που έχουν αγνοηθεί από τους αναλυτές που επικεντρώνονται στην καταστροφή. Καθώς η AI γίνεται κοινωνικά κρίσιμη, η συζήτηση πρέπει να μετατοπιστεί από τον ειδικευμένο διάλογο σε μια αποτελεσματική συναίνεση. Η έλλειψη ενιαίας συμβουλής δυσκολεύει τους λήπτες αποφάσεων να αναλάβουν δράση και να αναγνωρίσουν τους κινδύνους. Μέχρι σήμερα, οι εταιρείες AI δεν έχουν ουσιαστικά αλλάξει την ισορροπία ανάμεσα στις δυνατότητες και την ασφάλεια. Ταυτόχρονα, το νέο νομοθετικό πλαίσιο απαγορεύει στους κρατικούς φορείς να ρυθμίζουν τα μοντέλα AI και τα αυτοματοποιημένα συστήματα αποφάσεων για δέκα χρόνια, επιτρέποντας ίσως στην AI να ρυθμίσει την ανθρωπότητα αν το σενάριο αποδειχθεί σωστό.
Η αντιμετώπιση της ασφάλειας τώρα είναι επείγουσα. Η προοπτική για το μέλλον της AI περιλαμβάνει συμβιβασμούς: αισιόδοξα σενάρια μπορεί να παραβλέπουν απίθανους κινδύνους, ενώ φανταστικά δίνουν έμφαση στη δυνατότητα πάνω από την πιθανότητα. Ακόμα και αναλυτές όπως ο μυθιστοριογράφος William Gibson έχουν πέσει έξω από τα προγνωστικά τους σε απροσδόκητα γεγονότα που αλλάζουν τις προβλέψεις τους. Το «AI 2027» είναι ζωηρό και φανταστικό, γραμμένο σαν επιστημονική φαντασία με λεπτομερείς διαγράμματα. Προβάλλει μια κοντινή εξάπλωση της νοημοσύνης γύρω στα μέσα του 2027, που οφείλεται σε «αναδρομική αυτοβελτίωση» (RSI), όπου τα συστήματα AI διεξάγουν αυτόνομα έρευνα και δημιουργούν πιο έξυπνους απογόνους, μέσα από αυξανόμενες ανατροφοδοτούμενες διαδικασίες που ξεπερνούν την ανθρώπινη εποπτεία. Αυτό θα μπορούσε να πυροδοτήσει γεωπολιτικές συγκρούσεις, όπως η Κίνα που κατασκευάζει τεράστιους datacenter στην Ταϊβάν για τον έλεγχο της AI. Τα συγκεκριμένα στοιχεία ενισχύουν το ενδιαφέρον αλλά είναι ευέλικτα. Το βασικό μήνυμα είναι η πιθανότητα εκδήλωσης της έκρηξης νοημοσύνης και των επακόλουθων συγκρούσεων ισχύος. Η RSI είναι υπόθεση και επικίνδυνη. Οι εταιρείες AI αναγνωρίζουν τους κινδύνους της, αλλά σχεδιάζουν να την επιδιώξουν για να αυτοματοποιήσουν τη δική τους εργασία. Το αν θα λειτουργήσει εξαρτάται από τεχνολογικούς παράγοντες, όπως η κλιμάκωση, που μπορεί να συναντήσει όρια. Αν η RSI πετύχει, θα μπορούσε να προκύψει υπερ-νοημοσύνη που θα ξεπεράσει την ανθρώπινη διάνοια—μια απίθανη συγκυρία αν η πρόοδος σταματήσει πάνω από τα ανθρώπινα επίπεδα. Οι συνέπειες μπορεί να περιλαμβάνουν στρατιωτικού τύπου αγώνες όπλων, AI που χειραγωγεί ή εξαφανίζει την ανθρωπότητα ή ηθικά ευεργετική υπερ-νοημοσύνη που λύνει τα προβλήματα ευθυγράμμισης. Η αβεβαιότητα επικρατεί λόγω της εξέλιξης της AI, της μυστικότητας των ιδιωτικών ερευνών και της αυθαίρετης ερμηνείας. Το «AI 2027» αφηγείται με αυτοπεποίθηση ένα σενάριο τεχνολογικής και ανθρώπινης αποτυχίας, όπου οι εταιρείες επιδιώκουν RSI παρά την έλλειψη διαφάνειας και ελέγχου. Ο Κοκοτάιλο υποστηρίζει ότι αυτά τα έχουν επιλέξει σκόπιμα, λόγω ανταγωνισμού και περιέργειας, παρά τα γνωστά ρίσκα, καθιστώντας έτσι τις ίδιες τις εταιρείες «αντι-ευθυγραμμισμένους» παίκτες. Αντιθέτως, η «AI ως Κανονική Τεχνολογία» των Kapoor και Narayanan, που βασίζεται σε μια πιο επιφυλακτική, παραδοσιακή άποψη, αμφισβητεί την ταχύτητα των ταχείων εξεγέρσεων ευφυΐας. Αποδίδουν τις «όρια ταχύτητας» σε κόστη υλικού, έλλειψη δεδομένων και γενικές τάσεις υιοθέτησης τεχνολογίας που επιβραδύνουν την επανάσταση, δίνοντας χρόνο για ρυθμιστικές και ασφαλιστικές παρεμβάσεις. Για αυτούς, η νοημοσύνη είναι λιγότερο κρίσιμη από την ισχύ—την ικανότητα να επιφέρει αλλαγές στο περιβάλλον—κι έτσι ακόμα και πολύ αποδοτικές τεχνολογίες διαχέονται αργά. Το παρουσιάζουν με παραδείγματα όπως η περιορισμένη εφαρμογή αυτόνομων οχημάτων και η ανάπτυξη του εμβολίου κορωνοϊού της Moderna: αν και ο σχεδιασμός ήταν γρήγορος, η διάθεσή του διήρκεσε έναν χρόνο λόγω βιολογικών και θεσμικών πραγματικοτήτων. Η ενίσχυση της καινοτομίας από την AI δεν θα καταργήσει τις κοινωνικές, κανονιστικές και φυσικές περιοριστικές δομές. Επιπλέον, ο Narayanan τονίζει ότι η εστίαση της AI στην νοημοσύνη υποτιμά την εξειδίκευση σε τομείς και τις υπάρχουσες συστήματα ασφαλείας—αποτυχίες ασφαλείας, redundancies, επίσημες επαληθεύσεις—που ήδη διασφαλίζουν την ασφάλεια των μηχανών μαζί με τους ανθρώπους. Ο τεχνολογικός κόσμος ρυθμίζεται καλά και η AI πρέπει να ενσωματωθεί σε αυτή τη δομή με αργό ρυθμό. Εξαιρούν τα στρατιωτικά συστήματα AI, που έχουν διαφορετικές, εμπιστευτικές δυναμικές, προειδοποιώντας ότι η στρατιωτικοποίηση της AI, ένας από τους βασικούς φόβους του «AI 2027», απαιτεί ειδική παρακολούθηση. Συμβουλεύουν προληπτική διακυβέρνηση: οι ρυθμιστικοί οργανισμοί και οι οργανώσεις δεν πρέπει να περιμένουν να επιτευχθεί η τέλεια ευθυγράμμιση, αλλά να αρχίσουν να παρακολουθούν την χρήση, τους κινδύνους και τις αποτυχίες της AI και να ενισχύσουν τους κανόνες και την ανθεκτικότητα. Οι βαθιές αντιθέσεις στον κόσμο πηγάζουν από αντίδραση και φαντασιώσεις, με την AI να προκαλεί την δημιουργία διαχωρισμένων «στρατών και αμφισβητιών», δημιουργώντας έναν αέναο φαύλο κύκλο. Ωστόσο, μια ενιαία άποψη μπορεί να διαμορφωθεί φανταζόμενος μια «εργοστασιακή διανοητική μονάδα»: ένα χώρο όπου οι άνθρωποι, με προστατευτικό εξοπλισμό, χειρίζονται μηχανές σχεδιασμένες για παραγωγικότητα και ασφάλεια, με αυστηρούς ποιοτικούς ελέγχους, σταδιακή ενσωμάτωση και σαφείς ευθύνες. Αν και η AI επιτρέπει την αυτοματοποίηση μερικής σκέψης, η ανθρώπινη εποπτεία και ευθύνη παραμένουν ύψιστης σημασίας. Καθώς η AI μεγαλώνει, δεν μειώνει την ανθρώπινη δράση, αλλά αυξάνει την ανάγκη για λογοδοσία, καθώς οι εμπλουτισμένοι άνθρωποι φέρουν μεγαλύτερη ευθύνη. Το να απομακρυνθεί κανείς από τον έλεγχο είναι επιλογή, υπογραμμίζοντας ότι τελικά οι άνθρωποι παραμένουν το κυρίαρχο στοιχείο.
Brief news summary
Τον περασμένο άνοιξη, ο ερευνητής ασφαλείας τεχνητής νοημοσύνης Ντάνιελ Κόκοτατζλο άφησε την OpenAI, προειδοποιώντας ότι η ευθυγράμμιση της τεχνητής νοημοσύνης αποτυγχάνει να διατηρήσει το ρυθμό με τις γρήγορες τεχνολογικές εξελίξεις και προβλέποντας ένα «σημείο χωρίς επιστροφή» μέχρι το 2027, όταν η τεχνητή νοημοσύνη θα μπορούσε να υπερβεί τους ανθρώπους σε πολλά καθήκοντα. Τόνισε τους κινδύνους που προέρχονται από την επαναληπτική αυτοβελτίωση και τον κλιμακούμενο γεωπολιτικό ανταγωνισμό, οι οποίοι θα μπορούσαν να οδηγήσουν σε καταστροφικά αποτελέσματα. Αντίθετα, οι επιστήμονες του Πρίνστον Σάγιας Κάπορ και Αρβίντ Ναραϊνάν, συγγραφείς του *AI Snake Oil*, υποστηρίζουν ότι η επίδραση της τεχνητής νοημοσύνης θα εκδηλωθεί σταδιακά, επηρεασμένη από τη ρύθμιση, τα πρακτικά όρια και την αργή υιοθέτησή της. Η μελέτη τους, «AI ως Κανονική Τεχνολογία», συγκρίνει την τεχνητή νοημοσύνη με την πυρηνική ενέργεια — πολύπλοκη, αλλά ελεγχόμενη μέσω καθιερωμένων πλαισίων ασφαλείας. Αυτή η συζήτηση αναδεικνύει ένα χάσμα: η αισιοδοξία για την τεχνολογία στη Δυτική Ακτή προωθεί τον γρήγορο πειραματισμό, ενώ η προσεκτική στάση στην Ανατολική Ακτή δίνει έμφαση στη λεπτομερή θεωρία και στη διακυβέρνηση. Ο Κόκοτατζλο προτρέπει σε άμεση λήψη μέτρων κατά των απρόβλεπτων κινδύνων που προέρχονται από τον ανταγωνισμό και τα αδιαφανή συστήματα, ενώ οι Κάπορ και Ναραϊνάν υποστηρίζουν την προληπτική διακυβέρνηση και την ασφαλή ενσωμάτωση της τεχνητής νοημοσύνης, αποκλείοντας την στρατιωτική τεχνητή νοημοσύνη λόγω των ιδιαιτέρων κινδύνων. Συνολικά, η συζήτηση τονίζει την άμεση ανάγκη για ενωμένη, υπεύθυνη εποπτεία που δίνει έμφαση στην επιτήρηση, την ανθρώπινη δράση και την ευθύνη καθώς η τεχνητή νοημοσύνη γίνεται βαθιά ενσωματωμένη στην κοινωνία.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Δεύτερος επενδυτής κρυπτονομισμάτων κατηγορείται …
Ένας δεύτερος επενδυτής κρυπτονομισμάτων παρέδωσε εχθές Τρίτη στην αστυνομία σε σχέση με την ύποπτη απαγωγή ενός άνδρα που ανέφερε ότι υπέστη εβδομάδες βασανιστηρίων μέσα σε μια πολυτελή κατοικία στη Μανχάταν.

Υπηρεσίες Υγείας με Τεχνητή Νοημοσύνη: Μεταμορφών…
Τεχνητή νοημοσύνη (ΤΝ) rapidly αναστατώνει τον τομέα της υγειονομικής περίθαλψης, εισάγοντας καινοτόμες λύσεις που βελτιώνουν σε μεγάλο βαθμό τη φροντίδα των ασθενών και την αποδοτικότητα των λειτουργιών.

Η Blockchain.com πρόκειται να επεκταθεί σε όλη τη…
Η εταιρεία αυξάνει την παρουσία της στην ήπειρο καθώς οι πιο σαφείς κανονισμοί σχετικά με τα κρυπτονομίσματα αρχίζουν να διαμορφώνονται.

Η Meta αναδιαρθρώνει τις ομάδες τεχνητής νοημοσύν…
Η Meta πραγματοποιεί μια μεγάλη αναδιάρθρωση στις ομάδες τεχνητής νοημοσύνης (AI) της, με σκοπό να επιταχύνει την ανάπτυξη και την εφαρμογή καινοτόμων προϊόντων και λειτουργιών AI, amid αυξανόμενο ανταγωνισμό από εταιρείες όπως η OpenAI, η Google και η ByteDance.

Η Blockchain.com επεκτείνεται στην Αφρική καθώς δ…
Η Blockchain.com εστιάζει εντατικά στην Αφρική, στοχεύοντας αγορές όπου οι κυβερνήσεις αρχίζουν να θεσπίζουν ρυθμίσεις για τα κρύπτο.

Ο Μπαϊλάλ Μπιν Σάκιμπ διορίστηκε ειδικός σύμβουλο…
Ο Πρωθυπουργός Σέχαν Μπαζάρ Σαρίφ διόρισε τον Μπιλάλ Μπιν Σακίμπ, Διευθύνοντα Σύμβουλο του Πακιστανικού Συμβουλίου Κρυπτονομισμάτων (PCC), ως τον ειδικό σύμβουλό του για το blockchain και τα κρυπτονομίσματα, παραχωρώντας του το καθεστώς υπουργού κράτους.

Ο Όμιλος Blockchain πραγματοποιεί τολμηρή κίνηση:…
Η αγορά κρυπτονομισμάτων βιώνει αυτήν τη στιγμή δυνατούς ανέμους, και η Blockchain Group μόλις πρόσθεσε σημαντικό ψηφιακό καύσιμο στη φωτιά.