OpenAI, das weltweit wertvollste Unternehmen für reine KI-Software, hat Mitglieder seines Teams entlassen, das für den Schutz seines geistigen Eigentums verantwortlich ist, wie ein Bericht nahelegt. Dieses Team, bekannt als Insider-Risikoteam, stellt sicher, dass Details über OpenAIs Software, wie die Modellgewichte, die zu ihrer Entwicklung verwendet werden, nicht an externe Stellen weitergegeben werden. Die Änderungen wurden von OpenAI bestätigt und erfolgen, nachdem die US-Regierung Anfang des Jahres neue Regeln angekündigt hat, um den Export sensibler KI-Software-Details zu verhindern, damit diese nicht in falsche Hände geraten.
OpenAI restrukturiert Sicherheitsabteilung zum Schutz von Software und geistigem Eigentum
OpenAI hat kürzlich einige Mitglieder eines Teams entlassen, das für den Schutz proprietärer Daten verantwortlich ist. KI-Software basiert auf verschiedenen Parametern, wie den Gewichten der Eingaben, die die Reaktion auf Benutzeranfragen bestimmen. Diese Komponenten sind der entscheidende Unterscheidungsfaktor für Modelle und ermöglichen es einem Unternehmen, im Markt zu konkurrieren.
Folglich sind Modellgewichte und andere Softwareparameter proprietäre Informationen, die intern geschützt werden. Laut Bericht wurden die Mitglieder des Teams, das für den Schutz dieser proprietären Informationen verantwortlich war, bei OpenAI entlassen. Das Unternehmen bestätigte diese Entwicklungen und erklärte, dass die Änderungen notwendig seien, um das Unternehmen auf eine erweiterte Bedrohungslage anzupassen.
Anfang dieses Jahres führte die ausgehende Biden-Administration eine neue Reihe von Regeln ein, die als AI Diffusion Rules bekannt sind. Diese beschränkten nicht nur den Verkauf von NVIDIAs GPUs an die meisten Länder der Welt, sondern auch die Weitergabe von Modellgewichten an feindliche Nationen. Zu den neuen Regeln gehörte die Anforderung, dass die Modellgewichte für die fortschrittlichste US-KI-Software nur unter strengen Sicherheitsbedingungen außerhalb der USA gespeichert werden dürfen.
Die Regeln erforderten eine Lizenz für die Übertragung von Modellgewichten an Nutzer in anderen Ländern. Im Rahmen der Veröffentlichung stellte die Administration fest, dass «glaubwürdige Open-Source-Berichte Unternehmen der Volksrepublik China (VR China) identifiziert haben, die ausländische Tochtergesellschaften in einer Reihe von unkontrollierten Destinationen genutzt haben, um ICs [integrierte Schaltkreise] zu kaufen, die EAR-Kontrollen unterliegen.» Dieses Risiko sei laut der Regierung «noch größer bei KI-Modellgewichten, die, einmal von böswilligen Akteuren exfiltriert, überall auf der Welt sofort kopiert und versendet werden können.»
KI-Unternehmen sind auch Risiken der Industriespionage durch Konkurrenten oder Kunden ausgesetzt. Einige haben erlebt, dass Kunden ihre Produkte kopiert haben, nachdem sie diese für kurze Zeiträume verwendet hatten. OpenAI, das weltweit wertvollste Unternehmen für reine KI-Software, hat Verträge mit dem Verteidigungsministerium und für den Aufbau von souveräner KI-Infrastruktur in den USA und im Ausland abgeschlossen.