Sicherheitsmaßnahmen für KI hinken hinterher, während die Macht wächst: Bericht des Future of Life Institute
Brief news summary
Der Bericht des Future of Life Institute identifiziert erhebliche Mängel in den Sicherheitsmaßnahmen bei führenden Tech-Unternehmen, darunter OpenAI und Google DeepMind, wobei beide mit einer besorgniserregenden D+-Bewertung abschneiden. Experten wie Yoshua Bengio kritisieren diese Organisationen für ineffektives Risikomanagement und mangelnde Transparenz. Andere Unternehmen, wie Meta und Elon Musks x.AI, erzielten noch niedrigere Bewertungen, was auf weit verbreitete Defizite in der Branche hinweist. Anthropic, ein Unternehmen, das Sicherheit in den Vordergrund stellt, erhielt die höchste Bewertung von C, was darauf hindeutet, dass in allen Organisationen erhebliche Verbesserungen nötig sind. Der Bericht weist darauf hin, dass alle bewerteten KI-Modelle anfällig für "Jailbreaks" sind, was die Unzulänglichkeit der aktuellen Sicherheitsprotokolle angesichts der Besorgnis über KI, die menschengleiches Intelligenzniveau erreicht, offenbart. Prominente Stimmen wie Stuart Russell plädieren für konkrete Sicherheitsmaßnahmen statt komplexer Systemabhängigkeiten, während Tegan Maharaj die Notwendigkeit einer unabhängigen Aufsicht über interne Bewertungen hinaus betont. Um diese Herausforderungen anzugehen, fordert der Bericht strenge Sicherheitsstandards und hebt hervor, dass einige Probleme technologische Innovationen erfordern könnten. Er unterstreicht den Wert von Initiativen wie dem AI Safety Index, um verantwortungsvolle KI-Entwicklung zu fördern und Best Practices in der gesamten Branche umzusetzen.Da Unternehmen zunehmend leistungsfähigere KI entwickeln, scheinen die Sicherheitsmaßnahmen hinterherzuhinken. Ein kürzlich veröffentlichter Bericht des Future of Life Institute zeigt Bedenken hinsichtlich potenzieller Schäden durch KI-Technologie auf, die von Firmen wie OpenAI und Google DeepMind genutzt wird. Flaggschiffmodelle dieser Entwickler weisen Schwachstellen auf, und obwohl einige Unternehmen ihre Sicherheitsprotokolle verbessert haben, hinken andere hinterher. Dieser Bericht folgt auf den offenen Brief des Future of Life Institute von 2023, der für eine Pause im Training groß angelegter KI-Modelle plädierte und große Unterstützung erhielt. Der Bericht, erstellt von einem Gremium aus sieben unabhängigen Experten, darunter Anerkannte wie der Turing-Preisträger Yoshua Bengio, bewertete Unternehmen in sechs Bereichen: Risikobewertung, aktuelle Schäden, Sicherheitsrahmen, existenzielle Sicherheitsstrategie, Governance und Verantwortlichkeit sowie Transparenz und Kommunikation. Die bewerteten Bedrohungen reichten von CO2-Emissionen bis hin zum Abtrünnigwerden von KI-Systemen. Laut dem Gremiumsmitglied Stuart Russell ist die Aktivität im Bereich 'Sicherheit' bei KI-Unternehmen derzeit noch nicht sehr effektiv. Die vergebenen Bewertungen spiegeln dies wider, wobei Meta und X. AI die niedrigsten Bewertungen erhielten, während OpenAI und Google DeepMind etwas besser abschnitten, aber als trotzdem unzureichend betrachtet wurden.
Anthropic, obwohl das Unternehmen großen Wert auf Sicherheit legt, erhielt nur die Note C, was darauf hindeutet, dass selbst führende Akteure Verbesserungen vornehmen müssen. Alle Unternehmen hatten Modelle, die anfällig für „Jailbreaks“ sind, was ihre Systeme Risiken aussetzt. Tegan Maharaj von der HEC Montréal betont die Notwendigkeit einer unabhängigen Überwachung, da die Abhängigkeit von innerbetrieblichen Bewertungen irreführend sein kann, aufgrund fehlender Verantwortlichkeit. Maharaj erwähnt "low-hanging fruit", also einfache Sicherheitsverbesserungen, die einige Unternehmen wie Zhipu AI, X. AI und Meta ignorieren, wie etwa Risikobewertungen. Komplexere Probleme erfordern technische Durchbrüche aufgrund der inhärenten Natur aktueller KI-Modelle. Stuart Russell hebt das Fehlen garantierter Sicherheit unter dem aktuellen KI-Ansatz hervor, der auf riesige Datensätze setzt, und erkennt die zunehmende Schwierigkeit, da KI-Systeme immer größer werden. Bengio betont die Notwendigkeit von Initiativen wie dem AI Safety Index, da sie seiner Meinung nach entscheidend dafür sind, dass Unternehmen Sicherheitsverpflichtungen einhalten und verantwortungsvolle Praktiken fördern.
Watch video about
Sicherheitsmaßnahmen für KI hinken hinterher, während die Macht wächst: Bericht des Future of Life Institute
Try our premium solution and start getting clients — at no cost to you