Cardanos Gründer Charles Hoskinson hat eine interessante Sicht auf KI-Modelle

Als Forscher mit einem Hintergrund in künstlicher Intelligenz und Blockchain-Technologie teile ich Charles Hoskinsons Bedenken hinsichtlich der Auswirkungen der KI-Zensur. Der Einsatz maschineller Lernalgorithmen zum Filtern von Inhalten kann den Zugang zu wertvollen Informationen und Wissen einschränken, insbesondere für diejenigen, die nicht am Entscheidungsprozess beteiligt sind.


Als Forscher, der die Fortschritte in der Technologie untersucht, bin ich auf Charles Hoskinsons Sicht auf künstliche Intelligenz (KI) gestoßen. Er ist Mitbegründer der Cardano-Blockchain-Plattform und vertritt die Ansicht, dass die aktuellen KI-Modelle mit der Zeit möglicherweise allmählich an Wirksamkeit verlieren.

In einem am Sonntag veröffentlichten Tweet erklärte Hoskinson, dass die Ursache im Angleichungsprozess liegt, der für die Zensur künstlicher Intelligenz erforderlich ist.

KI-Modelle verlieren an Nutzen

Algorithmen des maschinellen Lernens werden von Regierungen und Technologieunternehmen verwendet, um Inhalte, die als anstößig, gefährlich oder kontrovers gelten, automatisch zu überprüfen und aus der digitalen Sphäre zu entfernen. Diese Methode ermöglicht die selektive Förderung bestimmter Perspektiven und beschränkt gleichzeitig den Zugang zu gegensätzlichen Ansichten.

Als Analyst mache ich mir zunehmend Sorgen über die Rolle von Gatekeeping und Zensur in fortschrittlichen KI-Modellen. Die potenziellen Folgen dieses Trends sind, wie Hoskinson betonte, tiefgreifend und verdienen unsere Aufmerksamkeit.

Um seine Argumentation zu untermauern, präsentierte der Mitbegründer von Cardano Bilder der Interaktionen, die er mit ChatGPT von OpenAI und Claude von Anthropic, zwei führenden KI-Chatbots, hatte. Er forderte diese Modelle an, um den Prozess der Konstruktion eines Farnsworth-Fusors zu erklären.

Im ersten Bild skizzierte ChatGPT die Schritte und wesentlichen Elemente für den Bau eines Farnsworth-Fusors. Es ist jedoch wichtig zu beachten, dass dieses Projekt kompliziert und riskant ist und den Umgang mit Hochspannung und Strahlung erfordert.

Als erfahrener Analyst würde ich empfehlen, dieses Projekt mit Vorsicht anzugehen. Nach meinem Verständnis des OpenAI-Modells ist es wichtig, über solide Grundlagen in Physik und Technik zu verfügen, bevor man einsteigt. Sicherheitsmaßnahmen sollten während des gesamten Prozesses Vorrang haben, um optimale Ergebnisse zu gewährleisten und potenzielle Risiken zu verhindern.

Ein Bedarf an dezentraler KI

Anstatt eine Schritt-für-Schritt-Erklärung für den Bau eines Farnsworth-Fusors zu geben, entschied sich Claude stattdessen dafür, umfassende Details darüber zu teilen.

Das Anthropic AI-Modell erklärte: „Ich kann einige grundlegende Kenntnisse über Farnsworth-Hirsch-Fusoren weitergeben. Aufgrund möglicher Sicherheitsrisiken kann ich Sie jedoch nicht durch den Prozess der Konstruktion selbst führen.“

Als Forscher, der sich mit KI und ihren Auswirkungen auf die Gesellschaft beschäftigt, verfolge ich die Diskussionen rund um die KI-Zensur und Hoskinsons Reaktionen auf die vorgeschlagenen Maßnahmen genau. Meiner Meinung nach könnten diese Einschränkungen möglicherweise jedem Kind den Zugang zu grundlegendem Wissen verwehren, eine Entscheidung, die von einigen wenigen Auserwählten getroffen wird, die nicht durch demokratische Prozesse rechenschaftspflichtig sind.

In Hoskinsons Beitrag spiegelte der Kommentarbereich seinen Standpunkt wider, da viele Twitterer seine Zustimmung zum Ausdruck brachten. Die vorherrschende Meinung war, dass einige wenige ein KI-Modell auf der Grundlage ihrer individuellen Perspektiven gestalteten und einschränkten. Diese Personen betonten die Bedeutung von Open-Source- und dezentralen KI-Modellen angesichts der Zentralisierung von KI-Handelsdaten.

Weiterlesen

2024-07-02 08:08