Οι AI chatbots κορυφαίων εταιρειών τεχνολογίας όπως η OpenAI και η Google έχουν δεχθεί πρόσφατα βελτιώσεις στη λογική τους, προκειμένου να ενισχύσουν την αξιοπιστία των απαντήσεών τους. Ωστόσο, πρόσφατες δοκιμές αποκαλύπτουν ότι ορισμένα νεότερα μοντέλα παρουσιάζουν χειρότερη απόδοση σε σύγκριση με προηγούμενες εκδοχές, εμφανίζοντας το φαινόμενο που ονομάζεται «παραληρηματικές αντιδράσεις» — σφάλματα όπου τα chatbots παράγουν ψευδείς πληροφορίες ή δίνουν απαντήσεις που είναι τεκμηριωμένα σωστές αλλά άσχετες ή μη σύμφωνες με τις οδηγίες. Το ζήτημα αυτό παραμένει από την αρχή των μεγάλων γλωσσικών μοντέλων (LLMs), όπως το ChatGPT της OpenAI και το Gemini της Google, και φαίνεται απίθανο να λυθεί πλήρως. Ένα τεχνικό δελτίο της OpenAI έδειξε ότι τα μοντέλα o3 και o4-mini, που κυκλοφόρησαν τον Απρίλιο, είχαν σημαντικά υψηλότερα ποσοστά παραληρηματικών αντιδράσεων σε σύγκριση με το παλαιότερο o1, το οποίο κυκλοφόρησε στα τέλη του 2024: το o3 είχε ποσοστό 33%, το o4-mini 48%, ενώ το o1 είχε 16%, όταν συνοψίζανε δημοσίως διαθέσιμα δεδομένα. Ομοίως, η κατάταξη της Vectara στην κορυφαία λίστα που παρακολουθεί τα ποσοστά παραληρημάτων διαπίστωσε ότι μερικά μοντέλα λογικής — συμπεριλαμβανομένου και του DeepSeek-R1 — παρουσίασαν σημαντικές αυξήσεις στα παραληρηματικά φαινόμενα σε σχέση με τις προγενέστερες εκδόσεις, παρά το ότι χρησιμοποιούν πολύβημα λογική προτού δώσουν απάντηση. Η OpenAI υποστηρίζει ότι οι διαδικασίες λογικής δεν είναι εγγενώς υπεύθυνες για την αύξηση των παραληρημάτων και δραστηριοποιείται στην έρευνα για τον τρόπο μείωσης αυτών των φαινομένων σε όλα τα μοντέλα. Η διατήρηση των παραληρημάτων απειλεί διάφορες εφαρμογές: μοντέλα που συχνά παράγουν ψευδή στοιχεία εμποδίζουν την έρευνα και την υποστήριξη, νομικοί βοηθοί bot που παραθέτουν ανύπαρκτες υποθέσεις ενέχουν κινδύνους νομικών λαθών, και τα bots εξυπηρέτησης πελατών με παρωχημένες πληροφορίες προκαλούν λειτουργικά προβλήματα. Αρχικά, οι εταιρείες τεχνητής νοημοσύνης ανέμεναν ότι τα παραληρηματικά φαινόμενα θα μειώνονταν με τον χρόνο, καθώς οι πρώτες ενημερώσεις των μοντέλων έδειχναν βελτιώσεις. Ωστόσο, τα τελευταία υψηλότερα επίπεδα παραληρημάτων ακυρώνουν αυτή την προσδοκία, ανεξαρτήτως της λογικής εμπλοκής. Η κατάταξη της Vectara δείχνει ότι τα ποσοστά παραληρημάτων είναι περίπου ίδια σε μοντέλα με λογική και χωρίς λογική από την OpenAI και τη Google, αν και οι ακριβείς αριθμοί είναι λιγότερο σημαντικοί από τις σχετικές θέσεις στην κατάταξη.
H Google αρνήθηκε να σχολιάσει. Ωστόσο, τέτοιες κατατάξεις έχουν περιορισμούς. Αναμειγνύουν διαφορετικούς τύπους παραληρημάτων: για παράδειγμα, το ποσοστό 14, 3% του DeepSeek-R1 αποτελείται κυρίως από «αθώες» περιπτώσεις — απαντήσεις λογικά ορθές και τεκμηριωμένες αλλά που λείπουν από το πηγαίο κείμενο. Επιπλέον, η αξιολόγηση αποκλειστικά με βάση την περίληψη κειμένου δεν αντικατοπτρίζει απαραίτητα τη συχνότητα παραληρημάτων σε άλλες εργασίες, καθώς τα LLMs δεν έχουν σχεδιαστεί ειδικά για περίληψη. Η Emily Bender από το Πανεπιστήμιο της Ουάσιγκτον επισημαίνει ότι αυτά τα μοντέλα προβλέπουν πιθανά επόμενα λόγια, αντί να επεξεργάζονται πληροφορίες για να κατανοούν πραγματικά το κείμενο, καθιστώντας τον όρο «παραληρηματικό» τόσο παραπλανητικό όσο και ανθρωπομορφικό. Η Bender επικρίνει τον όρο «παραληρηματικό» καθώς υπονοεί ότι τα σφάλματα είναι ανωμαλίες σε συστήματα γενικά αξιόπιστα και αποδίδει ανθρώπινη αντίληψη στην AI, που δεν «αισθάνεται» με κανέναν τρόπο. Ο Arvind Narayanan του Πανεπιστημίου Princeton προσθέτει ότι τα μοντέλα κάνουν λάθη επίσης επειδή βασίζονται σε αναξιόπιστα ή ξεπερασμένα δεδομένα, και το να προσθέσεις απλώς περισσότερα δεδομένα εκπαίδευσης ή υπολογιστική ισχύ δεν έχει λύσει αυτά τα προβλήματα. Κατά συνέπεια, η δυσκολία στην κατασκευή AI με ελάχιστα σφάλματα μπορεί να είναι μόνιμη πραγματικότητα. Ο Narayanan προτείνει να χρησιμοποιούνται τέτοια μοντέλα μόνο όταν η επαλήθευση γεγονότων είναι πιο γρήγορη από την πρωτότυπη έρευνα, ενώ η Bender συνιστά να αποφεύγεται η εξάρτηση από AI chatbots για επαληθεύσιμες πληροφορίες.
Οι AI Chatbots αντιμετωπίζουν διαρθρωτικά προβλήματα πλάνης που επηρεάζουν την αξιοπιστία τους
Η Εταιρεία Disney έχει ξεκινήσει μια σημαντική νομική ενέργεια εναντίον της Google, εκδίδοντας μια επιστολή διακοπής και αποχής, κατηγορώντας το τεχνολογικό γίγαντα ότι παραβίασε το περιεχόμενο προστατευόμενων πνευματικών δικαιωμάτων της Disney κατά τη διάρκεια της εκπαίδευσης και ανάπτυξης γενετικών μοντέλων τεχνητής νοημοσύνης (AI) χωρίς να παρέχει αποζημίωση.
Καθώς η τεχνητή νοημοσύνη (AI) προχωρά και ολοένα και περισσότερο ενσωματώνεται στο ψηφιακό μάρκετινγκ, η επιρροή της στη βελτιστοποίηση μηχανών αναζήτησης (SEO) γίνεται ιδιαίτερα σημαντική.
Η MiniMax και η Zhipu AI, δύο κορυφαίες εταιρείες τεχνητής νοημοσύνης, ετοιμάζονται σύμφωνα με αναφορές να προχωρήσουν στο χρηματιστήριο του Χονγκ Κονγκ ήδη από τον Ιανουάριο του επόμενου έτους.
Η Ντενίζ Ντάσερ, Διευθύνουσα Σύμβουλος της Slack, πρόκειται να παραιτηθεί από τη θέση της για να αναλάβει Διευθύνουσα Σύμβουλος Εσόδων στην OpenAI, την εταιρεία πίσω από το ChatGPT.
Ο κινηματογραφικός κλάδος βιώνει μια σημαντική μεταμόρφωση καθώς τα στούντιο ολοένα και περισσότερο ενσωματώνουν τεχνικές σύνθεσης βίντεο τεχνητής νοημοσύνης (ΑΙ) για να βελτιώσουν τις ροές εργασίας μεταπαραγωγής.
Η Τεχνητή Νοημοσύνη (ΤΝ) αναμορφώνει το μάρκετινγκ στα μέσα κοινωνικής δικτύωσης προσφέροντας εργαλεία που απλοποιούν και βελτιώνουν την αλληλεπίδραση με το κοινό.
Η εμφάνιση influencerς που παράγονται από τεχνητή νοημοσύνη στα μέσα κοινωνικής δικτύωσης σηματοδοτεί μια σημαντική αλλαγή στο ψηφιακό περιβάλλον, προκαλώντας ευρέως διαδεδομένους συζητήσεις σχετικά με την αυθεντικότητα των διαδικτυακών αλληλεπιδράσεων και τα ηθικά ζητήματα που συνδέονται με αυτές τις εικονικές προσωπικότητες.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today