AI-Sicherheitsindex zeigt Anthropic als führend in Sicherheitsmaßnahmen für KI.

Der kürzlich veröffentlichte AI Safety Index bewertete sechs führende KI-Unternehmen hinsichtlich ihrer Sicherheitsmaßnahmen und Risikoanalysen, wobei Anthropic die höchste Bewertung von C erhielt. Die anderen Unternehmen—Google DeepMind, Meta, OpenAI, xAI und Zhipu AI—bekamen Noten von D+ oder schlechter, wobei Meta insgesamt versagte. Max Tegmark vom Future of Life Institute, das den Bericht veröffentlichte, betont, dass das Ziel nicht die Bloßstellung, sondern die Motivation der Unternehmen ist, ihre Sicherheitspraktiken zu verbessern, ähnlich wie Universitäten auf Rankings reagieren. Tegmark möchte Forscher in KI-Sicherheitsteams unterstützen, indem er ihnen Hebelwirkung verschafft, um Ressourcen und Respekt innerhalb ihrer Unternehmen zu gewinnen. Das Future of Life Institute, das sich auf die Vermeidung negativer Folgen mächtiger Technologien konzentriert, hatte zuvor einen Entwicklungsstopp für KI gefordert, um Sicherheitsstandards festzulegen, obwohl die Unternehmen dem nicht nachkamen. Der AI Safety Index bewertete die Unternehmen in sechs Bereichen: Risikoanalyse, aktuelle Schäden, Sicherheitsrahmen, existenzielle Sicherheitsstrategie, Governance und Verantwortlichkeit sowie Transparenz. Trotz der Verwendung verschiedener öffentlicher Informationsquellen reagierten die meisten Unternehmen nicht auf den Bericht, mit Ausnahme von Google DeepMind, das erklärte, ihre Sicherheitsmaßnahmen gingen über das hinaus, was der Index erfasse. Die Bewertung umfasste unabhängige Gutachter, darunter bekannte Persönlichkeiten wie Stuart Russell und Yoshua Bengio.
Sie stellten fest, dass die bestehenden Sicherheitsaktivitäten dieser Unternehmen ineffektiv sind und keine quantitativen Sicherheitsgarantien bieten. Der Bericht kritisierte insbesondere die Unternehmen für ihre existenziellen Sicherheitsstrategien, da die meisten keine angemessenen Pläne für die Sicherstellung entworfen haben, dass allgemeine künstliche Intelligenz (AGI) mit menschlichen Werten übereinstimmt. Nur Anthropic erzielte vergleichsweise hohe Punktzahlen, insbesondere bei der Bekämpfung aktueller Schäden, teils aufgrund ihrer verantwortungsbewussten Skalierungspolitik. Tegmark fordert jedoch eine behördliche Aufsicht ähnlich der FDA, um sicherzustellen, dass KI-Produkte vor der Markteinführung sicher sind. Er warnt, dass Unternehmen in einem Wettbewerb gefangen sind, der gründliche Sicherheitstests behindert, und plädiert dafür, dass Sicherheitsstandards den Marktvorteil für Unternehmen priorisieren, die diese zuerst erfüllen.
Brief news summary
Der AI Safety Index hat kürzlich die Sicherheitspraktiken von sechs großen KI-Unternehmen bewertet: Anthropic, Google DeepMind, Meta, OpenAI, xAI und Zhipu AI. Die Ergebnisse zeigten, dass Anthropic mit einer Bewertung von C an der Spitze stand, während Meta zurückblieb. Diese Bewertung, durchgeführt vom Future of Life Institute, zielt darauf ab, Sicherheitsverbesserungen in der gesamten Industrie zu fördern. Max Tegmark vom Institut betonte, dass solche Bewertungen die Bedeutung interner Sicherheitsteams für den Erhalt des Firmenrufs hervorheben. Das Institut widmet sich der Minimierung negativer Auswirkungen fortschrittlicher Technologien und hatte zuvor dafür plädiert, die Entwicklung von KI-Modellen zu pausieren, um die Sicherheit zu verbessern – ein Vorschlag, der weitgehend unbeachtet blieb. Die Bewertung untersuchte sechs Schlüsselbereiche: Risikobewertung, aktuelle Schäden, Sicherheitsrahmen, existentielle Sicherheitsstrategien, Governance, Verantwortlichkeit und Transparenz. Forschungspapiere, Richtliniendokumente und Branchenberichte dienten als Beweisgrundlage, aber nur xAI und Zhipu AI füllten Transparenzfragebögen aus. Experten wie Stuart Russell und Yoshua Bengio haben Bedenken hinsichtlich der bestehenden Sicherheitsmaßnahmen und der Herausforderungen im Umgang mit KI-Technologien geäußert. Anthropic fiel durch seinen sorgfältigen Ansatz bei der Skalierung und Bereitstellung von KI auf und erhielt ein B-. Der Bericht stellte jedoch fest, dass keines der Unternehmen über ausreichende existentielle Sicherheitsstrategien verfügte, was die Schwierigkeit unterstreicht, superintelligente KI mit menschlichen Werten in Einklang zu bringen. Es wurde vorgeschlagen, regulatorische Maßnahmen ähnlich denen der FDA zu ergreifen, um die Sicherheit zu priorisieren und eine sichere Entwicklung und Bereitstellung von KI sicherzustellen.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Google entwickelt vor der jährlichen Konferenz ei…
Vor der mit großer Spannung erwarteten jährlichen Entwicklerkonferenz bereitet Google Berichten zufolge die Einführung eines bahnbrechenden KI-Softwareentwicklungsagenten für seine Mitarbeiter und Entwickler vor, so The Information.

Animoca Brands plant Börsengang in den USA angesi…
Das in Hongkong ansässige Kryptowährungsinvestmentunternehmen Animoca Brands bereitet sich auf die Notierung an einer US-Börse vor, motiviert durch das günstige regulatorische Umfeld für Kryptowährungen, das unter Präsident Donald Trump geschaffen wurde.

Chinas KI-gestützte humanoide Roboter sollen die …
In einem riesigen Lagerhaus am Stadtrand von Shanghai werden dutzende humanoide Roboter aktiv von Bedienern gesteuert, um repetitive Aufgaben wie das Falten von T-Shirts, das Zubereiten von Sandwiches und das Öffnen von Türen auszuführen.

Google startet KI-Startup-Fonds und bietet Zugang…
Google kündigte am Montag an, dass es einen neuen Fonds auflegen wird, der sich auf Investitionen in KI-Startups konzentriert.

Grundlagen der Kryptowährungen: Vorteile, Nachtei…
Du hast für uns oberste Priorität – immer.

Perplexity steht kurz vor der zweiten Finanzierun…
Perplexity, eine in San Francisco ansässige, KI-gestützte Suchmaschine, steht kurz vor dem Abschluss ihrer fünften Finanzierungsrunde innerhalb von nur 18 Monaten, was auf eine schnelle Expansion und zunehmendes Investorenvertrauen hinweist.

Solana feiert 5 Jahre: 400 Milliarden Transaktion…
Die Solana-Blockchain feierte kürzlich einen bedeutenden Meilenstein, nämlich den fünften Jahrestag seit dem Start ihres Mainnets am 16.