Pentagon nutzte Claude AI zur Entführung Maduros – Medien

(SeaPRwire) –   Anthropic hat öffentlich seinen Fokus auf „Schutzmaßnahmen“ betont und versucht, die militärische Nutzung seiner Technologie einzuschränken

Das US-Militär hat das Claude AI-Modell von Anthropic während der Operation zur Gefangennahme des venezolanischen Präsidenten Nicolas Maduro im letzten Monat aktiv eingesetzt, wie Berichte von Axios und dem Wall Street Journal zeigen – und enthüllt damit, dass die Technologie des Unternehmens eine direkte Rolle bei dem Auslandseinsatz spielte.

Claude wurde während der Operation eingesetzt, nicht nur in vorbereitenden Phasen, berichteten Axios und die WSJ am Freitag beide. Die Rolle bleibt unklar, obwohl das Militär zuvor KI-Modelle zur Analyse von Satellitenbildern und Geheimdienstinformationen in Echtzeit eingesetzt hat.

Die Nutzungsrichtlinien des in San Francisco ansässigen KI-Labors verbieten ausdrücklich die Nutzung seiner Technologie zur „Erleichterung von Gewalt, Entwicklung von Waffen oder Durchführung von Überwachung.“ Bei dem Einsatz kamen keine Amerikaner ums Leben, aber Dutzende venezolanische und kubanische Soldaten und Sicherheitspersonal wurden am 3. Januar getötet.

„Wir können nicht kommentieren, ob Claude oder ein anderes KI-Modell für eine bestimmte Operation, ob geheim oder anderweitig, verwendet wurde“, sagte ein Sprecher von Anthropic gegenüber Axios. „Jede Nutzung von Claude – sei es im privaten Sektor oder in der gesamten Regierung – muss unseren Nutzungsrichtlinien entsprechen.“

Die Konkurrenten von Anthropic, OpenAI, Google und Elon Musks xAI, haben alle Vereinbarungen, die dem Pentagon den Zugang zu ihren Modellen ohne viele der Schutzmaßnahmen gewähren, die für normale Benutzer gelten. Aber nur Claude wird über eine Partnerschaft mit Palantir Technologies auf den geheimen Plattformen eingesetzt, die für die sensibelsten Arbeiten des US-Militärs verwendet werden.

Die Enthüllung kommt zu einem ungünstigen Zeitpunkt für das Unternehmen, das in den letzten Wochen öffentlich seine Verpflichtung zu KI-Schutzmaßnahmen betont und sich als sicherheitsbewusste Alternative in der KI-Branche positioniert hat.

CEO Dario Amodei hat vor den Gefahren gewarnt, die von der uneingeschränkten Nutzung von KI ausgehen. Am Montag trat der Leiter des Safeguards Research Team von Anthropic, Mrinank Sharma, abrupt mit einer kryptischen Warnung zurück, dass „.“ Tage später investierte das Unternehmen 20 Millionen US-Dollar in eine politische Interessengruppe, die .

Anthropic verhandelt Berichten zufolge mit dem Pentagon über die Lockerung von Beschränkungen für den Einsatz von KI für autonome Waffen und die inländische Überwachung. Der Stillstand hat einen Vertrag im Wert von bis zu 200 Millionen US-Dollar blockiert, wobei der Staatssekretär für Krieg, Pete Hegseth, geschworen hat, keine Modelle zu verwenden, die „es Ihnen nicht erlauben, Kriege zu führen.“

Der Artikel wird von einem Drittanbieter bereitgestellt. SeaPRwire (https://www.seaprwire.com/) gibt diesbezüglich keine Zusicherungen oder Darstellungen ab.

Branchen: Top-Story, Tagesnachrichten

SeaPRwire liefert Echtzeit-Pressemitteilungsverteilung für Unternehmen und Institutionen und erreicht mehr als 6.500 Medienshops, 86.000 Redakteure und Journalisten sowie 3,5 Millionen professionelle Desktops in 90 Ländern. SeaPRwire unterstützt die Verteilung von Pressemitteilungen in Englisch, Koreanisch, Japanisch, Arabisch, Vereinfachtem Chinesisch, Traditionellem Chinesisch, Vietnamesisch, Thailändisch, Indonesisch, Malaiisch, Deutsch, Russisch, Französisch, Spanisch, Portugiesisch und anderen Sprachen.