Anthropische Herausforderungen verbieten US-Verteidigungsministerium den Einsatz von KI vor Bundesgerichten
Brief news summary
Anthropic klagt gegen das US-Verteidigungsministerium, um vorübergehend eine Regierungsverbotsregelung für die Nutzung seines KI-Systems Claude in militärischen und auftragsbezogenen Einsätzen zu stoppen. Dieser Konflikt entstand, nachdem Anthropic sich gegen den Einsatz von Claude bei inländischer Massenüberwachung und vollständig autonomen tödlichen Waffen ausgesprochen hatte, was den ehemaligen Präsidenten Trump veranlasste, landesweit einen Stopp der militärischen Nutzung anzuordnen. Verteidigungsminister Pete Hegseth stufte Anthropic als Risiko in der Lieferkette ein, eine Bezeichnung, die das Unternehmen als potenziell ernsthaften finanziellen Schaden ansieht. Die Klage, die von Richterin Rita Lin im Norden Kaliforniens überwacht wird, wirft zentrale Fragen auf, da Claude an US-Militärmissionen beteiligt war, einschließlich Einsätzen gegen Iran. Richterin Lin bezeichnete den Fall als eine „faszinierende öffentliche Politikdebatte“ und fragte, ob Regierungsmaßnahmen strafend seien. Rechtsexperten der Regierung argumentieren, dass Hegseths Anweisung in sozialen Medien keine rechtliche Grundlage habe, was noch gerichtlich geprüft werde. Anthropic behauptet, die Einstufung verletze seine First-Amendment-Rechte, da sie eine Vergeltungsmaßnahme für geschützte Äußerungen und das Engagement für KI-Sicherheit sei. Das Unternehmen äußert außerdem Bedenken hinsichtlich des Missbrauchs von KI durch autoritäre Regime, während das Verteidigungsministerium und Trump Anthropic politischen Vorurteilen bezichtigen, wobei Trump es als eine „RADIKAL-LINKS, WOKE- FIRMA“ bezeichnet.Am Dienstagnachmittag stellte Anthropic die Verteidigungsbehörde in einem Bundesgerichtshof zur Rede, weil das KI-Unternehmen eine vorübergehende Einstellung der Entscheidung der Regierung forderte, die US-Militär und Auftragnehmer daran hindert, ihre Technologie zu nutzen. Der Streit dreht sich um Anthropic’s Weigerung, seinen Claude-KI-Chatbot für innere Massensurveillance und vollautonome tödliche Waffen einzusetzen. Diese Kontroverse intensivierte sich, nachdem Donald Trump allen US-Regierungsstellen befahl, die Nutzung der Werkzeuge von Anthropic einzustellen – eine Anordnung, gegen die das Unternehmen ebenfalls gerichtlich vorgeht. Vertreter des KI-Unternehmens und Regierungsbeamte traten vor Richterin Rita Lin in einem Bezirkgericht in Nordkalifornien, wo die Richterin die Anhörung zu einer einstweiligen Verfügung leitete. Diese Sitzung markierte eine frühe Phase in der Klage von Anthropic gegen das Verteidigungsministerium, die Anfang dieses Monats eingereicht wurde, nachdem Pete Hegseth, der Verteidigungsminister, das Unternehmen als Risiko in der Lieferkette bezeichnete. Anthropic ist der Ansicht, dass diese Einstufung irreparablen Schaden anrichten und ihm Hunderte Millionen oder mehr an Einnahmen kosten wird. Die Klage und das Urteil von Richterin Lin dürften weitreichende Folgen sowohl für Anthropic als auch für die US-Regierung haben, die in den letzten Jahren stark auf Claude angewiesen ist – für verschiedene Funktionen, einschließlich militärischer Operationen gegen den Iran. Der Konflikt, insbesondere der beispiellose Schritt des Verteidigungsministeriums, ein US-Unternehmen als Risiko in der Lieferkette zu brandmarken, hat zudem die engen Beziehungen zwischen dem Silicon Valley und der Trump-Administration belastet. Richterin Lin bezeichnete den Fall als eine „faszinierende Debatte über öffentliche Politik“, betonte jedoch, dass ihre Verantwortung eng gefasst sei auf die Frage, ob die Handlungen der Regierung illegal seien. Sie äußerte auch Zweifel am Verhalten der Regierung und deutete an, dass diese möglicherweise über die bloße Entscheidung, nicht mit Anthropic zusammenzuarbeiten, hinausgegangen sein könnte und in einen strafenden Bereich eingedrungen sei. „Es sieht nach einem Versuch aus, Anthropic zu ruinieren“, sagte Lin. Die Anwälte der Regierung erwiderten, dass die Social-Media-Ankündigung von Hegseth im letzten Monat, die Auftragnehmer verbot, mit der Regierung zusammenzuarbeiten, wenn sie mit Anthropic in Kontakt traten, keine rechtlich bindende Maßnahme sei.
Sie argumentierten, dass keine Partei Sanktionen zu befürchten habe, wenn sie diese missachtete. Ihre Position schien jedoch im Widerspruch zu Hegseths Post auf X zu stehen, in dem erwähnt wurde, dass jeder Auftragnehmer, der Geschäfte mit dem Militär mache, vermeiden müsse, mit Anthropic zusammenzuarbeiten. Richterin Lin fragte den Anwalt der Regierung: „Sie sagen hier, ‘Wir haben es gesagt, aber wir meinten es eigentlich nicht. ’“ Sie fragte weiter, warum Hegseth eine solche Aussage gemacht hätte, wenn sie keine rechtliche Wirkung entfalte. „Ich weiß nicht“, antwortete der Anwalt der Regierung. Anthropic wollte sich zu dem Rechtsstreit nicht äußern. Das Verteidigungsministerium hat erklärt, es bespreche laufende Rechtsangelegenheiten grundsätzlich nicht öffentlich. Anthropic wirft der Regierung vor, die Einstufung als Risiko in der Lieferkette verletze die Rechte auf freie Meinungsäußerung gemäß dem Ersten Verfassungszusatz. Es sei beabsichtigt gewesen, das Unternehmen zu bestrafen, weil es den Präsidenten verärgert habe und sich gegen die Bitte des Departments gewehrt hatte, die Sicherheitsmaßnahmen für Claude zu lockern. „Diese Maßnahmen sind beispiellos und rechtswidrig. Die Verfassung erlaubt der Regierung nicht, ihre immense Macht zu missbrauchen, um ein Unternehmen für geschützte Meinungsäußerung zu bestrafen“, erklärte Anthropic in seiner Klageschrift in Kalifornien. Das Unternehmen hält sein KI-Modell für nicht zuverlässig genug für Massensurveillance im Inland oder für vollautonome tödliche Waffensysteme. CEO Dario Amodei äußerte Bedenken hinsichtlich des möglichen missbräuchlichen Einsatzes von KI in autoritären Regimen. Im Gegensatz dazu haben US-Verteidigungsbeamte und Trump die Haltung von Anthropic als politisch voreingenommen und verräterisch charakterisiert, wobei Trump es in einem Post auf seiner Social-Media-Plattform Truth Social als „EINE RADIKALE LINKSE, WOKE-FIRMA“ bezeichnete.
Watch video about
Anthropische Herausforderungen verbieten US-Verteidigungsministerium den Einsatz von KI vor Bundesgerichten
Try our premium solution and start getting clients — at no cost to you