Elons Kampf für „Open-Source-AGI“ ignoriert Benutzer und ethisches KI-Training | Meinung

Als Forscher mit einem Hintergrund in künstlicher Intelligenz und Blockchain-Technologie bin ich fest davon überzeugt, dass der anhaltende Rechtsstreit zwischen Elon Musk und OpenAI erhebliche Bedenken hinsichtlich der wahren Absichten gewinnorientierter KI-Unternehmen aufwirft. Während die Umwandlung von OpenAI in eine gewinnorientierte Organisation auf den ersten Blick verlockend erscheinen mag, könnte die übermäßige Fokussierung auf Gewinne möglicherweise nachteilige Folgen für die Endbenutzer haben.


Elon Musk reichte eine Klage gegen OpenAI ein und warf dem Unternehmen vor, von seiner ursprünglichen Mission, künstliche allgemeine Intelligenz (AGI) „zum Wohl der Menschheit“ zu schaffen, abzuweichen. Carlos E. Perez spekuliert, dass diese rechtlichen Schritte OpenAI möglicherweise in das nächste WeWork verwandeln könnten, eine Anspielung auf das führende Technologieunternehmen, das nach einer Phase schnellen Wachstums vor erheblichen finanziellen und Reputationsproblemen stand.

In diesem laufenden Rechtsstreit steht die Ausrichtung von OpenAI auf die Erzielung von Gewinnen auf dem Prüfstand. Dennoch kann eine Überbetonung des finanziellen Gewinns durch das Unternehmen eigennützige Absichten verbergen. Darüber hinaus beeinträchtigt diese Betonung wesentliche Überlegungen für Benutzer: die Gewährleistung ethischer KI-Entwicklung und effektiver Datenverarbeitung.

Grok, Elons Idee und ChatGPT-Konkurrent, kann über Tweets auf „Echtzeitinformationen“ zugreifen. OpenAI ist ohnehin dafür berüchtigt, urheberrechtlich geschützte Daten nach links, rechts und in der Mitte zu entfernen. Jetzt hat Google einen 60-Millionen-Dollar-Deal abgeschlossen, um auf die Daten von Reddit-Benutzern zuzugreifen, um Gemini und Cloud AI zu trainieren. 

Als Krypto-Investor glaube ich, dass die bloße Befürwortung von Open-Source-Projekten nicht ausreicht, um die Interessen der Nutzer im Krypto-Bereich zu schützen. Stattdessen brauchen wir Mechanismen, um eine echte Einwilligung und eine faire Vergütung für Personen sicherzustellen, die zum Training großer Sprachmodelle (LLMs) beitragen. Neue Plattformen, die das Crowdsourcing von KI-Trainingsdaten erleichtern, sind für die Bewältigung dieses Problems von entscheidender Bedeutung. Auf dieses Thema werde ich später noch näher eingehen.

Es ist größtenteils gemeinnützig für Benutzer

Ungefähr 5,3 Milliarden Menschen weltweit nutzen das Internet, und etwa 93 % dieser riesigen Nutzerbasis verlassen sich auf zentralisierte Social-Media-Plattformen. Daher kann davon ausgegangen werden, dass ein erheblicher Teil der geschätzten 147 Milliarden Terabyte an Daten, die im Jahr 2023 online generiert wurden, von Benutzern stammt. Bis 2025 soll dieses Volumen 180 Milliarden Terabyte überschreiten.

Obwohl diese enorme Datensammlung bzw. „öffentlich zugängliche Information“ das Lernen und die Entwicklung von KI erheblich vorantreibt, können Nutzer daraus oft keine wesentlichen Vorteile ziehen. Ihnen mangelt es sowohl an Kontrolle als auch an echtem Eigentum über die verwendeten Daten. Die übliche Methode der Einwilligung, die über die Schaltfläche „Ich stimme zu“ erteilt wird, ist im besten Fall fragwürdig und im schlimmsten Fall grenzwertig an Zwang. Stattdessen sollten wir nach transparenteren und sinnvolleren Möglichkeiten streben, damit Benutzer verstehen und kontrollieren können, wie ihre Informationen genutzt werden.

Als Datenanalyst ist mir klar geworden, dass Daten in der heutigen digitalen Wirtschaft eine ähnliche Rolle spielen, ebenso wie Öl zu einer wertvollen Ressource für die Industrie geworden ist. Es ist jedoch wichtig zu beachten, dass die aktuelle Machtdynamik im Zusammenhang mit Dateneigentum auf große Technologieunternehmen ausgerichtet ist.

Angesichts der Entwicklung von Blockchains zur grundlegenden Technologie für die Datenverteilung und -authentizität haben wir eine aufregende Zeit für Benutzer erreicht. Entscheidend ist, dass moderne KI-Unternehmen diesen Lösungen Priorität einräumen, um die Leistung zu steigern, Kosten zu sparen und vor allem das Wohlergehen der Menschheit zu fördern.

Crowdsourcing-Daten für ethisches KI-Training

Das „Read-Write-Trust“-Modell von Web2 geht davon aus, dass sich Entitäten und Stakeholder altruistisch verhalten. Doch wie David Hume schon vor Jahrhunderten betonte, werden die Menschen in erster Linie von ihrem eigenen Eigeninteresse getrieben.

Im Web3-Modell, das durch „read-write-own“ gekennzeichnet ist, setze ich Technologien wie Blockchain und Kryptografie ein, um sicherzustellen, dass kein einzelner Teilnehmer im dezentralen Netzwerk böswillig oder betrügerisch handeln kann. Chris geht in seinem Buch eingehend auf dieses Konzept ein.

Als Krypto-Investor glaube ich, dass sich der Web3-Tech-Stack grundlegend von herkömmlichen Tech-Systemen unterscheidet. Es ist gemeinschaftsgesteuert und benutzergesteuert und ermöglicht es Einzelpersonen, die Kontrolle über ihre digitalen Assets und Daten zurückzugewinnen. Die Technologie stellt uns die Werkzeuge zur Verfügung, um unsere finanziellen, sozialen, kreativen und anderen Arten von Informationen sicher zu speichern und zu verwalten.

In jüngster Zeit wurden Fortschritte bei Datenschutz- und Sicherheitstechniken wie Zero-Knowledge-Proofs (zkProofs) und Multi-Party-Computing (MPC) erzielt. Diese Innovationen bieten neuartige Lösungen für die Datenüberprüfung, den Austausch und die Kontrolle, indem sie es den Parteien ermöglichen, Fakten zu authentifizieren, ohne die zugrunde liegenden Informationen offenzulegen.

Aus Sicht der Entwicklung künstlicher Intelligenz (KI) sind diese umfangreichen Fähigkeiten von Bedeutung. Heutzutage ist es möglich, vertrauenswürdige Daten zu erhalten, ohne auf zentrale Lieferanten oder Prüfer angewiesen zu sein. Was web3 jedoch wirklich auszeichnet, ist seine dezentrale und intermediärfreie Struktur, die direkte Interaktionen zwischen Datenproduzenten – also Benutzern – und KI-Projekten ermöglicht, die ihre Daten für das Modelltraining benötigen.

Als Analyst würde ich es so ausdrücken: Der Verzicht auf „vertrauenswürdige Vermittler“ und Gatekeeper führt zu erheblichen Kosteneinsparungen. Darüber hinaus ermöglicht dieses Setup Projekten, Benutzer direkt für ihre Beiträge und Bemühungen zu belohnen. Benutzer können Chancen wie das Aufzeichnen von Skripten in ihrem Mutterdialekt oder das Identifizieren und Kategorisieren von Objekten nutzen, indem sie im Gegenzug Kryptowährungen verdienen. Zu diesen Mikroaufgaben gehören Aufgaben wie das Erkennen und Beschriften von Bildern, das Sortieren unstrukturierter Daten und mehr.

Anstelle von „Unternehmen können andererseits genauere Modelle mithilfe hochwertiger, von Menschen validierter Daten im laufenden Betrieb und zu einem fairen Preis erstellen. Das ist eine Win-Win-Situation“, könnte man sagen:

Bottom-up-Fortschritte, nicht nur Open-Source

In ihrer aktuellen Form begünstigen traditionelle Frameworks stark Einzelpersonen und Benutzergemeinschaften, was das Konzept von Open Source in diesem Zusammenhang bedeutungslos macht. Um eine ethische Entwicklung der künstlichen Intelligenz (KI) voranzutreiben, ist eine deutliche Transformation bestehender Geschäftsmodelle und Trainingsmethoden unerlässlich.

Der Übergang von zentralisierten, hierarchischen Strukturen zu dezentralen, partizipativen Prozessen ist ein effektiverer Ansatz. Es ist auch wichtig, ein System aufzubauen, das auf Leistung und Wert basiert und Eigenverantwortung, Autonomie und Teamarbeit in den Vordergrund stellt. In diesem Zusammenhang führt eine gerechte Verteilung der Ressourcen zu mehr Wohlstand, anstatt möglichst viel anzuhäufen.

Es ist faszinierend, dass diese Systeme sowohl großen Unternehmen als auch kleineren Unternehmen und einzelnen Benutzern erhebliche Vorteile bringen werden. Tatsächlich sind erstklassige Daten, angemessene Preise und präzise KI-Modelle für alle Parteien unerlässlich.

Als Branchenanalyst bin ich fest davon überzeugt, dass es angesichts der aktuellen Anreize in unserem gemeinsamen Interesse liegt, New-Age-Modelle anzupassen und zu integrieren. Das Festhalten an veralteten Methoden und begrenzten Gewinnen bringt zwar kurzfristige Vorteile, wird uns aber auf lange Sicht nicht weiterhelfen, da die Zukunft im Vergleich zur Vergangenheit neue und andere Anforderungen mit sich bringt.

William Simonin

William Simonin ist Vorsitzender von Ta-da, einem KI-Datenmarktplatz, der Blockchain nutzt, um die Datenüberprüfung spielerisch zu gestalten. Zuvor arbeitete er etwa sechs Jahre lang als Software-Ingenieur und Forscher für das französische Verteidigungsministerium und für den Sicherheitsverband Epitech Nancy, wo er als Präsident und später als Professor für funktionale Programmierung fungierte. Er ist ein französischer Unternehmer und Mitbegründer mehrerer KI-, Technologie- und Kryptowährungsunternehmen.

Weiterlesen

2024-05-25 16:54