
Anthropic has withheld its most powerful AI model, Claude Mythos Preview, from public release after it discovered thousands of cybersecurity vulnerabilities across major platforms. Through Project Glasswing, the company is sharing the model exclusively with leading tech organisations and committing $100 million to help secure critical infrastructure.
Σε μια κίνηση που σηματοδοτεί μια δραματική αλλαγή στον τρόπο με τον οποίο αναπτύσσονται οι δυνατότητες της πρωτοποριακής τεχνητής νοημοσύνης, η Anthropic επέλεξε να μην δημοσιεύσει το πιο προηγμένο μοντέλο τεχνητής νοημοσύνης, αφού εντόπισε χιλιάδες προηγουμένως άγνωστα τρωτά σημεία στον κυβερνοχώρο σε μεγάλα λειτουργικά συστήματα και προγράμματα περιήγησης ιστού. Αντί να το κυκλοφορήσει εμπορικά, η εταιρεία διένειμε αθόρυβα την πρόσβαση στους οργανισμούς που είναι υπεύθυνοι για την ασφάλεια της ψηφιακής υποδομής του κόσμου.
Το εν λόγω μοντέλο ονομάζεται Claude Mythos Preview και αντιπροσωπεύει το πιο ικανό σύστημα της Anthropic μέχρι σήμερα. Κατά τη διάρκεια εσωτερικών δοκιμών, η Mythos επέδειξε μια εξαιρετική ικανότητα να εντοπίζει κενά ασφαλείας — αποκαλύπτοντας χιλιάδες ευπάθειες που εκτείνονται σε κάθε σημαντικό λειτουργικό σύστημα και οικοσύστημα προγραμμάτων περιήγησης που χρησιμοποιείται αυτήν τη στιγμή.
Αντί να το αντιμετωπίσει αυτό ως ευκαιρία για την κυκλοφορία ενός προϊόντος, η Anthropic δημιούργησε μια πρωτοβουλία με την ονομασία Project Glasswing. Το πρόγραμμα διοχετεύει τις δυνατότητες του Mythos απευθείας στις εταιρείες και τα ιδρύματα που κατασκευάζουν και συντηρούν κρίσιμο λογισμικό. Οι συνεργάτες κυκλοφορίας αντιπροσωπεύουν ένα ευρύ φάσμα της παγκόσμιας τεχνολογίας: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, το Linux Foundation, Microsoft, Nvidia και Palo Alto Networks.
Πέρα από αυτήν την αρχική ομάδα, η πρόσβαση έχει επεκταθεί σε περισσότερους από 40 επιπλέον οργανισμούς που αναπτύσσουν ή συντηρούν βασική υποδομή λογισμικού. Για να υποστηρίξει οικονομικά την προσπάθεια, η Anthropic δεσμεύει έως και 100 εκατομμύρια δολάρια σε πιστώσεις χρήσης, ώστε αυτοί οι συνεργάτες να μπορούν να εκτελούν το Mythos με βάση τον δικό τους κώδικα.
Αυτή η απόφαση έχει τεράστια σημασία για διάφορους λόγους. Πρώτον, αντιπροσωπεύει ένα από τα πιο ξεκάθαρα παραδείγματα μέχρι στιγμής ενός εργαστηρίου τεχνητής νοημοσύνης που περιορίζει σκόπιμα το εμπορικό δυναμικό ενός πρωτοποριακού μοντέλου λόγω επιπτώσεων στην ασφάλεια. Σε έναν κλάδο που συχνά επικρίνεται για τον αγώνα δρόμου για την αποστολή προϊόντων, η Anthropic επέλεξε αυτοσυγκράτηση — και αυτό είναι αξιοσημείωτο.
Δεύτερον, η κλίμακα των ανακαλύψεων είναι εκπληκτική. Η εύρεση χιλιάδων ευπαθειών σε πολλαπλές πλατφόρμες υποδηλώνει ότι η Mythos λειτουργεί σε ένα επίπεδο ανάλυσης κώδικα που υπερβαίνει κατά πολύ αυτό που μπορούν να επιτύχουν οι ερευνητές ανθρώπινης ασφάλειας ή τα υπάρχοντα αυτοματοποιημένα εργαλεία σε συγκρίσιμα χρονικά πλαίσια. Για το πλαίσιο, η βάση δεδομένων CVE - το παγκόσμιο πρότυπο για την παρακολούθηση δημόσια γνωστοποιημένων ευπαθειών στον κυβερνοχώρο - συνήθως καταγράφει περίπου 25.000 έως 30.000 νέες καταχωρήσεις ετησίως. Ένα μόνο μοντέλο τεχνητής νοημοσύνης που συνεισφέρει χιλιάδες ευρήματα σε μια συγκεντρωμένη περίοδο θα αντιπροσώπευε ένα σημαντικό κλάσμα της ετήσιας παγκόσμιας αποκάλυψης.
Τρίτον, αυτή η προσέγγιση θα μπορούσε να επαναπροσδιορίσει την οικονομική πλευρά της έρευνας για τα τρωτά σημεία. Εάν παρακολουθείτε την κάλυψή μας για το Microsoft Open-Source Toolkit Secures AI Agents at Runtime , θα γνωρίζετε ότι τα προγράμματα bug bouncy και οι δοκιμές διείσδυσης παραμένουν ακριβά και απαιτούν πολλή εργασία. Ένα μοντέλο AI ικανό να κάνει αυτό το έργο σε μεγάλη κλίμακα θα μπορούσε να εξοικονομήσει στους οργανισμούς δισεκατομμύρια σε κόστος που σχετίζεται με παραβιάσεις.
Η Anthropic ιδρύθηκε το 2021 από πρώην ερευνητές της OpenAI, συμπεριλαμβανομένων των αδελφών Dario και Daniela Amodei. Η εταιρεία έχει σταθερά τοποθετηθεί ως η εναλλακτική λύση που λαμβάνει υπόψη την ασφάλεια στον πρωτοποριακό αγώνα της Τεχνητής Νοημοσύνης, δημοσιεύοντας λεπτομερείς πολιτικές υπεύθυνης κλιμάκωσης και επενδύοντας σημαντικά στην έρευνα ευθυγράμμισης. Η οικογένεια μοντέλων Claude ανταγωνίζεται άμεσα τη σειρά GPT της OpenAI και το Gemini της Google.
Η απόφαση να μην επιτρέπεται η δημόσια πρόσβαση στο Mythos είναι σύμφωνη με αυτό το ήθος. Η κυκλοφορία ενός μοντέλου που μπορεί να εντοπίσει τρωτά σημεία zero-day σε μεγάλη κλίμακα θα ήταν ένα δίκοπο μαχαίρι — ανεκτίμητο για τους υπερασπιστές, αλλά δυνητικά καταστροφικό εάν προσπελαστούν από κακόβουλους παράγοντες που θα μπορούσαν να εκμεταλλευτούν τα ίδια ελαττώματα πριν από την ανάπτυξη των ενημερώσεων κώδικα.
Αυτή η ένταση βρίσκεται στην καρδιά αυτού που οι ερευνητές ασφαλείας ονομάζουν πρόβλημα «επιθετικής-αμυντικής ασυμμετρίας». Οι επιτιθέμενοι πρέπει να βρουν μόνο μία εκμεταλλεύσιμη αδυναμία. Οι αμυνόμενοι πρέπει να τις βρουν και να τις διορθώσουν όλες. Μια Τεχνητή Νοημοσύνη που γέρνει την ισορροπία προς τους αμυνόμενους - αλλά μόνο εάν οι δυνατότητές της ελέγχονται προσεκτικά - είναι ακριβώς το είδος του εργαλείου που απαιτεί ένα μοντέλο περιορισμένης κατανομής.
Από επιχειρηματικής άποψης, το Project Glasswing είναι ένα αριστούργημα, ακόμη και αν θυσιάσει βραχυπρόθεσμα έσοδα. Σκεφτείτε τα στρατηγικά οφέλη:
Η συμπερίληψη της JPMorganChase είναι ιδιαίτερα αποκαλυπτική. Τα χρηματοπιστωτικά ιδρύματα αντιμετωπίζουν αδιάκοπες κυβερνοεπιθέσεις και λειτουργούν υπό ορισμένα από τα αυστηρότερα κανονιστικά πλαίσια στον κόσμο. Η συμμετοχή τους σηματοδοτεί ότι η Mythos έχει ήδη αποδείξει την αξία της πέρα από τον τεχνολογικό τομέα. Αν ενδιαφέρεστε για το πώς η Τεχνητή Νοημοσύνη αναδιαμορφώνει τις χρηματοπιστωτικές υπηρεσίες, δείτε το άρθρο μας σχετικά με το Google AI Unveils PaperOrchestra for Automated Research .
Αρκετά ερωτήματα παραμένουν αναπάντητα. Θα κυκλοφορήσει τελικά η Anthropic δημόσια το Mythos, ίσως αφού διορθωθούν τα πιο κρίσιμα τρωτά σημεία; Πώς θα επαληθεύσει η εταιρεία ότι οι συνεργαζόμενοι οργανισμοί ενεργούν πράγματι έγκαιρα βάσει των ευρημάτων; Και τι συμβαίνει όταν οι αντίπαλοι αναπόφευκτα αναπτύσσουν τα δικά τους μοντέλα τεχνητής νοημοσύνης για την αναζήτηση τρωτών σημείων χωρίς παρόμοια ηθικά προστατευτικά κιγκλιδώματα;
Ο ευρύτερος κλάδος θα παρακολουθεί επίσης εάν αυτή η συνεργατική, σχεδόν φιλανθρωπική προσέγγιση θα γίνει πρότυπο. Εάν μια δέσμευση 100 εκατομμυρίων δολαρίων για αμυντική κυβερνοασφάλεια αποφέρει μετρήσιμα αποτελέσματα - λιγότερες παραβιάσεις, ταχύτερες ενημερώσεις κώδικα, ένα ασφαλέστερο διαδίκτυο - και άλλα εργαστήρια τεχνητής νοημοσύνης θα αντιμετωπίσουν πιέσεις να ακολουθήσουν το παράδειγμά τους.
Υπάρχει επίσης το ερώτημα κατά πόσον οι κυβερνήσεις θα επιδιώξουν να επιβάλουν αυτό το είδος πλαισίου υπεύθυνης γνωστοποίησης. Η Υπηρεσία Κυβερνοασφάλειας και Ασφάλειας Υποδομών (CISA) στις Ηνωμένες Πολιτείες έχει ήδη εκδηλώσει ενδιαφέρον για την ανίχνευση ευπαθειών με τη βοήθεια της Τεχνητής Νοημοσύνης, στο πλαίσιο της ευρύτερης αποστολής της.
Η απόφαση της Anthropic να κρατήσει το Claude Mythos Preview μακριά από τα φώτα της δημοσιότητας είναι μια από τις πιο σημαντικές κινήσεις στον κλάδο της Τεχνητής Νοημοσύνης φέτος. Επιλέγοντας την ασφάλεια αντί του θεάματος, η εταιρεία κάνει ένα υπολογισμένο στοίχημα ότι τα πιο ισχυρά μοντέλα Τεχνητής Νοημοσύνης δεν θα πρέπει πάντα να είναι προϊόντα — μερικές φορές θα πρέπει να είναι εργαλεία που χειρίζονται αθόρυβα οι άνθρωποι που βρίσκονται στην καλύτερη θέση για να προστατεύσουν όλους τους άλλους. Το αν αυτό το στοίχημα θα αποδώσει θα εξαρτηθεί από την εκτέλεση, τη διαφάνεια και το αν ο υπόλοιπος κλάδος είναι πρόθυμος να ακολουθήσει μια πορεία που δίνει προτεραιότητα στη συλλογική άμυνα έναντι του ατομικού κέρδους.