Sind KI-Unternehmen ausreichend geschützt, um die Menschheit vor den Risiken künstlicher Intelligenz zu bewahren?Laut einem neuen Bewertungsbericht des Future of Life Institute, einer gemeinnützigen Organisation aus dem Silicon Valley, ist die Antwort wahrscheinlich nein. Da KI zunehmend in menschliche Interaktionen mit Technologie integriert wird, treten potenzielle Schäden zutage – angefangen bei Menschen, die KI-Chatbots für Beratung nutzen und anschließend Selbstmord begehen, bis hin zu KI-gestützten Cyberangriffen. Zukünftige Risiken sind ebenfalls im Blick: der Einsatz von KI in Waffen oder Versuche, Regierungen zu destabilisieren. Es bestehen jedoch unzureichende Anreize für KI-Firmen, globale Sicherheit zu priorisieren. Der kürzlich veröffentlichte AI Safety Index des Instituts, der darauf abzielt, die KI-Entwicklung in Richtung sichererer Ergebnisse zu lenken und existenzielle Bedrohungen zu mindern, hebt dieses Problem hervor. Max Tegmark, Präsident des Instituts und Professor am MIT, merkte an, dass KI-Unternehmen als die einzige US-Branche agieren, die mächtige Technologien ohne Regulierung herstellt, was zu einem „Wettlauf nach unten“ führt, bei dem die Sicherheit oft vernachlässigt wird. Die besten Bewertungen im Index erhielten nur ein C+, verliehen an OpenAI, Entwickler von ChatGPT, und Anthropic, bekannt für seinen Chatbot Claude. Die KI-Abteilung von Google, Google DeepMind, bekam ein C. Niedrigere Noten erhielten Meta (die Muttergesellschaft von Facebook) und Elon Musks xAI, beide in der Nähe von Palo Alto ansässig. Chinesische Firmen wie Z. ai und DeepSeek erreichten ebenfalls die Note D. Alibaba Cloud erhielt die niedrigste Bewertung, ein D-. Die Unternehmen wurden anhand von 35 Indikatoren in sechs Kategorien bewertet, etwa Existenzsicherheit, Risikobewertung und Informationsaustausch. Die Bewertung basierte auf öffentlich verfügbaren Daten und Umfragen der Unternehmen, die von acht KI-Experten, darunter Akademikern und Organisationsführern, bewertet wurden. Erstaunlich ist, dass alle Firmen unter dem Durchschnitt bei der Existenzsicherheit abschnitten, die interne Kontrollen und Strategien misst, um katastrophalen Missbrauch von KI zu verhindern.
Der Bericht stellte fest, dass keine der Firmen glaubwürdige Pläne vorlegen konnte, um den Kontrollverlust oder schwere Missbräuche im Zuge des Fortschritts hin zu Allgemein- und Superintelligenz zu verhindern. Sowohl Google DeepMind als auch OpenAI bekräftigten ihr Engagement für Sicherheit. OpenAI betonte seine Investitionen in die Grundlagenforschung zur Sicherheit, rigorose Tests und den Austausch von Sicherheitsframeworks, um Branchenstandards zu heben. Google DeepMind hob seinen wissenschaftlich fundierten Sicherheitsansatz und seine Protokolle hervor, um schwerwiegende Risiken durch fortschrittliche KI-Modelle abzumildern, bevor diese Risiken sich materialisieren. Im Gegensatz dazu wies das Institut darauf hin, dass xAI und Meta Risikomanagement-Frameworks haben, aber an entsprechenden Monitoring- und Kontrollvereinbarungen sowie an bedeutenden sicherheitsbezogenen Forschungsinvestitionen mangeln. Unternehmen wie DeepSeek, Z. ai und Alibaba Cloud verfügen über keine öffentlich zugänglichen Strategiedokumente zur Sicherheit. Meta, Z. ai, DeepSeek, Alibaba und Anthropic reagierten nicht auf Anfragen nach Stellungnahmen. xAI bezeichnete den Bericht als „Lügen des traditionellen Mainstreams“, und Musks Anwalt antwortete nicht auf weitere Anfragen. Zwar berät Musk die Organisation und hat das Future of Life Institute finanziell unterstützt, war aber nicht an der Erstellung des AI Safety Index beteiligt. Tegmark äußerte die Befürchtung, dass unzureichende Regulierung Terroristen die Entwicklung von Biowaffen ermöglichen, manipulative Fähigkeiten jenseits des derzeit Möglichen erhöhen oder Regierungen destabilisieren könnte. Er betonte, dass die Lösung dieser Probleme einfach sei: die Festlegung verbindlicher Sicherheitsstandards für KI-Unternehmen. Während einige Regierungsmaßnahmen darauf abzielen, die Aufsicht über KI zu verbessern, hat die Tech-Lobby solche Regulierungen bekämpft, aus Angst vor Innovationseinbußen oder Firmenabwanderung. Dennoch ist die Gesetzgebung wie das kalifornische SB 53, das im September von Gouverneur Gavin Newsom unterzeichnet wurde, ein Schritt in die richtige Richtung: Es verpflichtet Unternehmen, Sicherheits- und Sicherheitsprotokolle offenzulegen und Vorfälle wie Cyberangriffe zu melden. Tegmark sieht dieses Gesetz als Fortschritt, betont aber, dass deutlich mehr Maßnahmen notwendig sind. Rob Enderle, Hauptanalyst bei der Enderle Group, sieht den AI Safety Index als einen überzeugenden Ansatz für die Regulierung von KI, bezweifelt jedoch die Fähigkeit der aktuellen US-Regierung, wirksame Vorschriften umzusetzen. Er warnte, dass schlecht formulierte Regeln Schaden anrichten könnten und bezweifelte, dass derzeitige Durchsetzungsmechanismen vorhanden sind, um die Einhaltung sicherzustellen. Zusammenfassend zeigt der AI Safety Index, dass die großen KI-Entwickler noch keine überzeugenden Sicherheitsverpflichtungen vorweisen können, und unterstreicht die Dringlichkeit stärkeren Regulierungen zum Schutz der Menschheit vor den wachsenden Risiken der KI.
AI-Sicherheitsindex zeigt, dass große KI-Unternehmen es versäumen, die Menschheit ausreichend vor KI-Risiken zu schützen
Meta, die Muttergesellschaft von Facebook, Instagram, WhatsApp und Messenger, hat kürzlich bedeutende Fortschritte bei der Weiterentwicklung ihrer künstlichen Intelligenz gemacht, indem sie mehrere kommerzielle Vereinbarungen mit namhaften Nachrichtenorganisationen abgeschlossen hat.
KI-Sichtbarkeit ist für SEOs unerlässlich, beginnend mit der Verwaltung von KI-Crawlern.
Ein parteienübergreifender US-Senat, darunter der bekannte Republikaner und China-Hawk Tom Cotton, hat ein Gesetz eingebracht, um zu verhindern, dass die Trump-Administration die Beschränkungen für den Zugang Pekings zu künstlichen Intelligenz-Chips für 2,5 Jahre lockert.
Muster Agency entwickelt sich rasch zu einer führenden Kraft im KI-gestützten Social-Media-Marketing und bietet ein umfassendes Dienstleistungsspektrum, das darauf abzielt, die Online-Präsenz von Unternehmen durch modernste Technologie zu verbessern.
Vizrt hat Version 8.1 seines Media-Asset-Management-Systems Viz One eingeführt.
Microsoft hat kürzlich seine Absatzwachstumsziele für seine KI-Agentenprodukte überarbeitet, nachdem zahlreiche Vertriebsmitarbeiter im Geschäftsjahr bis Juni ihre Quoten verfehlt hatten, berichtet The Information.
Künstliche Intelligenz (KI) verändert die Suchmaschinenoptimierung (SEO) zunehmend und zwingt Marketer dazu, ihre Strategien anzupassen, um wettbewerbsfähig zu bleiben.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today