Η αμφιλεγόμενη συμβουλή του Έρικ Σμιτ σχετικά με την ηθική της τεχνητής νοημοσύνης πυροδοτεί συζητήσεις για τα πνευματικά δικαιώματα και τη δίκαιη χρήση στην Silicon Valley
Brief news summary
Τον Απρίλιο του 2024, ο πρώην διευθύνων σύμβουλος της Google, Έρικ Σμιτ, συμβούλεψε φοιτητές του Πανεπιστημίου Στάνφορντ που ξεκινούν επιχειρήσεις στη Silicon Valley να είναι έτοιμοι να ξεπεράσουν ηθικά όρια, ιδίως στην ανάπτυξη τεχνητής νοημοσύνης. Αυτή η συμβουλή έρχεται εν μέσω 19 μηνύσεων κατά εταιρειών γενετικής τεχνητής νοημοσύνης, όπως η OpenAI και η Anthropic, για φερόμενη παραβίαση πνευματικών δικαιωμάτων, καθώς εκπαίδευσαν μοντέλα AI σε πνευματικά κατοχυρωμένα βιβλία και μέσα ενημέρωσης χωρίς την άδειά τους. Ο Σμιτ σύστησε αρχικά να κατασκευάζονται πρωτότυπα AI κατεβάζοντας μεγάλα δεδομένα και να ζητείται νομική συμβουλή μόνο μετά την επίτευξη επιτυχίας, υπογραμμίζοντας ότι η Silicon Valley δίνει προτεραιότητα στην καινοτομία παρά στη αυστηρή τήρηση των νόμων περί πνευματικής ιδιοκτησίας. Οι εταιρείες AI επικαλούνται το «δίκαιο χρήσης» για να δικαιολογήσουν τις πρακτικές τους με δεδομένα, αλλά ταυτόχρονα επιβάλλουν αυστηρούς περιορισμούς στην επανάχρηση περιεχομένου που δημιουργείται από AI, αποκαλύπτοντας μια διπλή στάση. Εσωτερικά έγγραφα των εταιρειών αποκαλύπτουν επίγνωση της αντίδρασης από τους δημιουργούς και απόρριψη προτάσεων για κοινό κέρδος. Οι κριτικοί υποστηρίζουν ότι η εκπαίδευση AI εκμεταλλεύεται άδικα υλικά που προστατεύονται από πνευματικά δικαιώματα, χωρίς να αποζημιώνει τους αρχικούς δημιουργούς, μερικές φορές αναπαράγοντας το περιεχόμενο σε μεγάλο βαθμό. Φωνές της βιομηχανίας, όπως ο πρώην αντιπρόεδρος της Stability AI, Ed Newton-Rex, ζητούν τη χρήση αδειοδοτημένων δεδομένων. Ταυτόχρονα, μεγάλες τεχνολογικές εταιρείες προστατεύουν αυστηρά τα copyrights των λογισμικών τους, αλλά παραβλέπουν τα δικαιώματα των καλλιτεχνών των οποίων η εργασία τροφοδοτεί την ανάπτυξη της AI. Συνολικά, η κουλτούρα της Silicon Valley προάγει την ταχεία καινοτομία συχνά εις βάρος ηθικών και νομικών κανόνων.Το Απρίλιο του 2024, ο πρώην διευθύνων σύμβουλος της Google και υποστηρικτής της Τεχνητής Νοημοσύνης, Έρικ Σμίτ, έδωσε μια ιδιωτική διάλεξη στο Πανεπιστήμιο του Στάνφορντ, λέγοντας στους επίδοξους επιχειρηματίες του Silicon Valley να είναι έτοιμοι να διασχίσουν ηθικά όρια. Παρά τις 19 αγωγές εναντίον εταιρειών γενετικής Τεχνητής Νοημοσύνης, όπως η Anthropic και η OpenAI, για παραβίαση πνευματικών δικαιωμάτων πάνω σε κλεμμένα βιβλία και μέσα μαζικής ενημέρωσης που χρησιμοποιήθηκαν για την εκπαίδευση των μοντέλων AI, ο Σμίτ συμβούλευσε τους φοιτητές να κατεβάζουν ελεύθερα περιεχόμενο για να χτίσουν πρωτότυπα, υποστηρίζοντας ότι τα νομικά ζητήματα θα μπορούσαν να λυθούν αργότερα εάν το προϊόν πετύχει. Το Πανεπιστήμιο του Στάνφορντ ανάρτησε συνοπτικά την ομιλία στο YouTube τον Αύγουστο του 2024, αλλά την αφαίρεσε την επόμενη μέρα χωρίς σχόλια. Η απλή στάση του Σμίτ αντικατοπτρίζει μια κοινή άποψη του Silicon Valley που συχνά καλύπτεται από νομικούς ή φιλοσοφικούς επιχειρήματα. Εκπρόσωπός του ανέφερε ότι η πεποίθηση του Σμίτ στην «δίκαιη χρήση» αποτελεί κινητήριο δύναμη της καινοτομίας, αντανακλώντας το τεχνο-φιλελεύθερο σύνθημα «η πληροφορία θέλει να είναι ελεύθερη», το οποίο θεωρεί την πληροφορία πόρο που πρέπει να ρέει απρόσκοπτα. Ωστόσο, αυτός ο αρχή σπάνια ισχύει για τις ιδιόκτητες πληροφορίες του Silicon Valley—τα προσωπικά δεδομένα και το λογισμικό—που προστατεύονται αυστηρά. Λογισμικό όπως το Photoshop και εφευρέσεις όπως ο αλγόριθμος αναζήτησης της Google ή ο σχεδιασμός του iPhone της Apple είναι κατοχυρωμένα με διπλώματα ευρεσιτεχνίας, και η νομική τους προστασία υπερασπίζεται από ισχυρές νομικές ομάδες. Ο τεχνολογικός τομέας συχνά εμπλέκεται σε υψηλού ρίσκου δικαστικές μονομαχίες πνευματικής ιδιοκτησίας: η Waymo έχει διαπραγματευτεί αποζημίωση 245 εκατομμυρίων δολαρίων σε συμφωνία υπόθεση εναντίον της Uber για κλοπή μυστικών σχετικά με αυτόνομη οδήγηση, η Apple κέρδισε πάνω από 1 δισεκατομμύριο δολάρια από τη Samsung σε μια επταετή διαμάχη διπλωμάτων ευρεσιτεχνίας, και η Apple και η Qualcomm έχουν επανειλημμένα καταθέσει μηνύσεις η μια εναντίον της άλλης παγκοσμίως. Στον αγώνα για την ανάπτυξη γενετικής AI, οι εταιρείες έχουν στοχεύσει επιθετικά σε λιγότερο προετοιμασμένες βιομηχανίες, εκπαιδεύοντας τα AI σε τεράστια σύνολα δεδομένων που συχνά περιέχουν περιεχόμενο με πνευματικά δικαιώματα. Οι εταιρείες δικαιολογούν αυτό διαφορετικά: η OpenAI δηλώνει ότι χρησιμοποιεί μόνο δημόσια διαθέσιμα δεδομένα, η Anthropic ότι χρησιμοποιεί βιβλία αλλά όχι εμπορικά, και η Meta παραδέχεται ότι χρησιμοποιεί εμπορικά βιβλία αλλά τα αποκαλεί «κορυφαία δίκαιη χρήση». Ωστόσο, αυτές οι εταιρείες αρνούνται παρόμοιες αξιώσεις δίκαιης χρήσης όταν προστατεύουν τις δικές τους δημιουργίες.
Η OpenAI απαγορεύει στους χρήστες να εκπαιδεύουν ανταγωνιστικά μοντέλα πάνω σε outputs του ChatGPT, η Anthropic, η Google και η xAI έχουν αντίστοιχους κανόνες—ουσιαστικά «μπορούμε να εκπαιδεύσουμε πάνω στο έργο σας, αλλά εσείς δεν μπορείτε πάνω στο δικό μας». Ενώ οι πιέσεις της αγοράς εξηγούν αυτά τα διπλά στάνταρ, οι αντιφάσεις ανάμεσα σε δράσεις και αξίες είναι προφανείς. Για παράδειγμα, η Meta ονομάζει τα μοντέλα της «ανοιχτά», αλλά εμποδίζει τις online αντιγραφές, ζητώντας την αφαίρεσή τους—μια στάση που έρχεται σε αντίθεση με την συνήθη γενναιοδωρία του ανοιχτού κώδικα. Η αξία των δεδομένων εκπαίδευσης είναι προφανής: το 2021, ο διευθύνων σύμβουλος της Anthropic, Dario Amodei, έγραψε ότι πρέπει να αποζημιώνονται οι παραγωγοί δεδομένων με μερίσματα κέρδους ή μερίδια μετοχών για να αποφευχθούν αντιδράσεις δημιουργών που θα μπορούσαν να επιβραδύνουν την προώθηση της AI. Ωστόσο, η Anthropic τώρα ισχυρίζεται ότι η χρήση πνευματικά προστατευμένου έργου αποτελεί δίκαιη χρήση, που δεν δίνει τίποτα στους δημιουργούς, και δεν έκανε καν σχόλιο για αυτή την αντίφαση. Οι εταιρείες υποστηρίζουν ότι τα outputs της AI είναι πρωτότυπα, όχι παράγωγα των εκπαιδευτικών δεδομένων, αλλά οι αναφορές δείχνουν ότι chatbots και γεννήτριες εικόνων μπορούν να αναπαράγουν σχεδόν αντίγραφα έργων όπως ο Χάarry Πότερ ή υπάρχον τέχνη. Οι εταιρείες μειώνουν τη σημασία αυτών των ζητημάτων, ακόμη και επικαλούνται γεωπολιτικά ζητήματα σχετικά με τον «ακροάσιο» της AI για να δικαιολογήσουν ευρείες αξιώσεις δίκαιης χρήσης—η OpenAI προειδοποίησε ότι χωρίς τέτοια πρόσβαση η Αμερική θα χάσει τον ανταγωνισμό στην AI. Δεν συμφωνούν όλοι οι insiders. Ο Ed Newton-Rex, πρώην αντιπρόεδρος της Stability AI, παραιτήθηκε στα τέλη του 2023, επικρίνοντας τη σημερινή εκπαίδευση της AI ως ασύμβατη με τις καθιερωμένες δημιουργικές οικονομίες βασισμένες στα πνευματικά δικαιώματα και ίδρυσε το Fairly Trained, που πιστοποιεί μοντέλα AI που εκπαιδεύονται με σωστά αδειοδοτημένα δεδομένα. Ταυτόχρονα, το Silicon Valley suffers από κλοπές πνευματικής ιδιοκτησίας μέσω πειρατείας λογισμικού, οδηγώντας τις εταιρείες να αλλάξουν μοντέλα διανομής: η Adobe και η Microsoft πλέον απαιτούν συνδρομητική πρόσβαση με επαλήθευση άδειας, και η Google δεν προσφέρει λήψεις. Αυτές οι μέθοδοι προστατεύουν την πνευματική ιδιοκτησία, αλλά δεν είναι διαθέσιμες σε πολλούς δημιουργούς των οποίων η εργασία εκμεταλλεύονται οι εταιρείες AI. Αυτή η διπλή στάση εγείρει αμφιβολίες σχετικά με τους ισχυρισμούς του Silicon Valley για δίκαιη χρήση—είναι πραγματικές αρχές ή απλώς νομική κάλυψη; Η γενετική AI πράγματι θέτει νέα ερωτήματα σχετικά με τα πνευματικά δικαιώματα, αλλά οι επιθετικές τακτικές της βιομηχανίας—ταχύτητα, παραβίαση πραγμάτων και εμπιστοσύνη στους νομικούς για την επίλυση των προβλημάτων—αντανακλούν τις μακροχρόνιες επιχειρηματικές νόρμες του Silicon Valley περισσότερο παρά μια αρχής καινοτομία.
Watch video about
Η αμφιλεγόμενη συμβουλή του Έρικ Σμιτ σχετικά με την ηθική της τεχνητής νοημοσύνης πυροδοτεί συζητήσεις για τα πνευματικά δικαιώματα και τη δίκαιη χρήση στην Silicon Valley
Try our premium solution and start getting clients — at no cost to you