Anthropic und OpenAI arbeiten mit dem US-amerikanischen AI Safety Institute zusammen, um die Zukunft der KI zu sichern

Als erfahrener Analyst mit langjähriger Erfahrung im Technologiesektor halte ich diese jüngsten Entwicklungen in der KI-Sicherheitsforschung für äußerst vielversprechend. Die Zusammenarbeit zwischen dem US-amerikanischen Artificial Intelligence Safety Institute und führenden Unternehmen wie Anthropic und OpenAI ist ein Beweis für die wachsende Erkenntnis, dass Sicherheit bei der Entwicklung fortschrittlicher KI-Systeme oberste Priorität haben sollte.

Die als U.S. Artificial Intelligence Safety Institute bekannte Zweigstelle des National Institute of Standards and Technology (NIST) des US-Handelsministeriums hat Kooperationspartnerschaften bekannt gegeben. Diese Partnerschaften, die durch Memorandums of Understanding (MOUs) gefestigt werden, bestehen mit zwei führenden KI-Unternehmen, Anthropic und OpenAI. Das Ziel dieser Allianzen besteht darin, einen einfachen Zugang zu ihren neuesten KI-Modellen zu ermöglichen und es dem Institut zu ermöglichen, umfassende Bewertungen sowohl vor als auch nach der Veröffentlichung durchzuführen und so die Sicherheit dieser Modelle zu gewährleisten, sobald sie veröffentlicht werden.

Durch Memorandums of Understanding (MOUs) wird das U.S. Artificial Intelligence Safety Institute seine Kräfte mit Anthropic und OpenAI für gemeinsame Forschungsprojekte bündeln, die in erster Linie auf die Bewertung von KI-Fähigkeiten und die Ermittlung potenzieller Sicherheitsrisiken abzielen. Es wird erwartet, dass diese Partnerschaft Methoden zur Bewältigung von Risiken im Zusammenhang mit hochentwickelten KI-Technologien voranbringt. Elizabeth Kelly, Leiterin des US-amerikanischen AI Safety Institute, betonte die Bedeutung der Sicherheit für den technologischen Fortschritt und äußerte sich begeistert über die bevorstehende technische Zusammenarbeit mit diesen KI-Unternehmen. Sie betonte, dass diese Vereinbarungen einen bedeutenden Fortschritt in den kontinuierlichen Bemühungen des Instituts zur Gewährleistung einer verantwortungsvollen KI-Entwicklung darstellen.

Über diese Kooperationen hinaus plant das American Artificial Intelligence Safety Institute, Vorschläge zur Verbesserung der Sicherheit innerhalb der Modelle von Anthropic und OpenAI anzubieten. Diese Arbeit wird in enger Zusammenarbeit mit dem britischen Artificial Intelligence Safety Institute durchgeführt und symbolisiert eine globale Initiative, die darauf abzielt, sichere und zuverlässige Fortschritte in der KI-Technologie zu fördern.

Die Arbeit des US-amerikanischen AI Safety Institute basiert auf dem umfassenden Hintergrund des NIST bei der Förderung des Fortschritts in der Messwissenschaft, -technologie und -standardisierung. Diese gemeinsamen Bewertungen werden die umfassenderen KI-Bemühungen des NIST stärken, die mit der Executive Order zur KI der Biden-Harris-Regierung zusammenfallen. Ziel ist es, die Schaffung sicherer und zuverlässiger KI-Systeme zu erleichtern und dabei die Zusagen wichtiger KI-Innovatoren an die Verwaltung hinsichtlich ihrer verantwortungsvollen Entwicklung zu erfüllen.

Basierend auf dem Bericht von Reuters haben die kalifornischen Gesetzgeber am Mittwoch ein umstrittenes Gesetz zur KI-Sicherheit gebilligt. Dieser Gesetzentwurf liegt nun in den Händen von Gouverneur Gavin Newsom, der bis zum 30. September Zeit hat, ihn entweder abzulehnen oder als Gesetz zu genehmigen. Der Gesetzentwurf fordert Sicherheitsüberprüfungen und andere Schutzmaßnahmen für KI-Modelle, die bestimmte Kostengrenzen oder Rechenleistung überschreiten. Einige Technologieunternehmen argumentieren, dass diese Anforderungen möglicherweise die technologische Innovation verlangsamen könnten.

Weiterlesen

2024-08-29 23:03