Der kalifornische KI-Gesetzentwurf spaltet Branchenzahlen

Als erfahrener Technologe mit über zwei Jahrzehnten Erfahrung auf diesem Gebiet neige ich zu der Seite, die sich für eine KI-Regulierung einsetzt, ähnlich wie Elon Musk. Die potenziellen Gefahren einer unregulierten KI-Entwicklung sind zu groß, um sie zu ignorieren, und ich habe aus erster Hand gesehen, wie leistungsstarke Technologien verheerende Auswirkungen haben können, wenn sie nicht kontrolliert werden.

In einfacherem, besser lesbarem Englisch:

Der Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047)

„Kalifornischer Senat verabschiedet umstrittenes Gesetz zur künstlichen Intelligenz inmitten von Whistleblower-Alarm“

„Wir sind OpenAI beigetreten, weil wir die Sicherheit der unglaublich leistungsstarken KI-Systeme gewährleisten wollten, die das Unternehmen entwickelt“, heißt es in dem Brief. Auf dem Weg dorthin können sie Systeme schaffen, die das Risiko schwerwiegender Schäden für die Gesellschaft bergen, beispielsweise durch beispiellose Cyberangriffe oder die Unterstützung bei der Entwicklung biologischer Waffen. Wenn ihnen das gelingt, wird die künstliche allgemeine Intelligenz die leistungsstärkste Technologie sein, die jemals erfunden wurde“, heißt es weiter.

Dieser Satz stellt eine potenzielle Gefahr für die Öffentlichkeit dar:

Dieser Satz bezieht sich auf größere Macht, bezieht sich auf größeren Ruhm:

Dezentrale KI-Projekte können eine sichere KI-Entwicklung ermöglichen

„Einige vergleichen die potenziellen Auswirkungen dieses Gesetzentwurfs auf Krypto- und Blockchain-Innovationen mit den aktuellen Beschränkungen der Regierung. Andere glauben jedoch, dass dezentrale KI-Projekte für die Schaffung sicherer und ethischer KI-Modelle durch den Einsatz von DAO-basierter Governance von entscheidender Bedeutung sind. Mit einer aktiven Beteiligung der Gemeinschaft ist dies möglich.“ Helfen Sie dabei, gefährliche KI-Anwendungsfälle zu eliminieren, um das Wachstum ethischer Anwendungsfälle zu fördern.“

Bild von Kohji Asakawa von Pixabay

Weiterlesen

2024-09-04 13:20