SGGP
Nachdem Europa mit der Ausarbeitung des weltweit ersten Gesetzes zur künstlichen Intelligenz (KI) begonnen und es bald darauf verabschiedet hat, haben die vier führenden US-amerikanischen „Giganten“ des Internet-Data-Mining gerade eine Gruppe mit dem Namen Frontier Model Forum gegründet.
Das Kernziel des Frontier Model Forums besteht darin, KI verantwortungsvoll voranzutreiben. Foto: THINKWITHNICHE |
Die Parteien kommen zusammen
Die Gruppe, zu der Anthropic, Google, Microsoft und OpenAI – Eigentümer von ChatGPT – gehören, sagte, die Hauptziele des Frontier Model Forum seien, dazu beizutragen, die von KI-Plattformen ausgehenden Risiken zu reduzieren und Industriestandards zu entwickeln. Das Frontier Model Forum wird ein neues Forum mit folgenden Hauptzielen schaffen: Förderung sicherer KI-Forschung, um die Entwicklung zu unterstützen, Risiken zu mindern und Sicherheitsbewertungen und -stufen zu standardisieren; Ermittlung bewährter Verfahren für die Entwicklung und Bereitstellung von Modellen, um der Öffentlichkeit zu helfen, die Art, Fähigkeiten, Grenzen und Auswirkungen der Technologie zu verstehen; Arbeiten Sie mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und Unternehmen zusammen, um Wissen über Risiken und Sicherheit auszutauschen.
Die Technologiegiganten sträuben sich tendenziell gegen eine Verschärfung der Kontrollen. Dieses Mal hat sich die allgemeine Sicht auf die Technologiebranche jedoch angesichts großer Bedenken hinsichtlich der Risiken, die KI mit sich bringen kann, stark verändert. Unternehmen, die an der Initiative „Frontier Model Forum“ teilnehmen, verpflichten sich, bewährte Verfahren untereinander auszutauschen und Informationen offen mit Regierungen und der Zivilgesellschaft zu teilen.
Das Frontier Model Forum wird sich insbesondere auf groß angelegte, aber noch junge Plattformen für maschinelles Lernen konzentrieren, die die KI auf ein neues Niveau der Komplexität – und möglicherweise auch der Risiken – bringen. Darüber hinaus wird das Frontier Model Forum auch die Entwicklung von Anwendungen unterstützen, die sich mit großen gesellschaftlichen Herausforderungen befassen, wie etwa der Eindämmung des Klimawandels und der Anpassung an seine Folgen, der Früherkennung und Prävention von Krebs sowie der Abwehr von Cyberbedrohungen.
Raum für potenzielle Zerstörung
Die Ankündigung des Frontier Model Forum durch US-Unternehmen erfolgte wenige Tage, nachdem US-Senatoren am 25. Juli bei einer Anhörung vor einem Unterausschuss des Justizausschusses des US-Senats vor dem Risiko gewarnt hatten, dass KI für biologische Angriffe eingesetzt werden könnte. Kürzlich haben sich sieben große Technologieunternehmen, darunter OpenAI, Alphabet und Meta, gegenüber dem Weißen Haus freiwillig dazu verpflichtet, ein System zu entwickeln, mit dem sämtliche von KI erstellten Inhalte – von Texten über Bilder und Audiodateien bis hin zu Videos – identifiziert werden können, um den Benutzern Informationstransparenz zu bieten und so die Sicherheit dieser Technologie zu gewährleisten.
Dario Amodei, CEO von AI Anthropic, wies darauf hin, dass KI zwar noch nicht in der Lage sei, bei der Herstellung biologischer Waffen zu helfen, sie jedoch ein „mittelfristiges“ Risiko darstelle und innerhalb der nächsten zwei bis drei Jahre eine ernsthafte Bedrohung für die nationale Sicherheit der USA darstelle. Der Grund hierfür liegt darin, dass groß angelegte Angriffe mit biologischen Waffen nicht mehr nur von Personen durchgeführt werden, die über Fachkenntnisse auf diesem Gebiet verfügen.
Die Welt steht vor einer Explosion von Inhalten, die mithilfe generativer KI-Technologie erstellt werden. Von den USA über Europa bis nach Asien werden die Kontrollen schrittweise verschärft. Ab September wird der US-Senat laut CNN eine Reihe von neun zusätzlichen Workshops veranstalten, in denen die Mitglieder erfahren können, welche Auswirkungen KI auf Arbeitsplätze, die nationale Sicherheit und geistiges Eigentum haben könnte. Sollte es zu einer Einigung kommen, wird die Europäische Union nächstes Jahr vor den USA das weltweit erste Gesetz zum KI-Management verabschieden, das voraussichtlich 2026 in Kraft treten wird.
Die Vorteile, die KI der Gesellschaft bringt, sind unbestreitbar, doch es gibt zunehmend Warnungen vor den potenziellen Risiken dieser neuen Technologie. Im Juni unterstützte UN-Generalsekretär Antonio Guterres den Vorschlag mehrerer KI-Führungskräfte, eine internationale KI-Aufsichtsbehörde nach dem Vorbild der Internationalen Atomenergie-Organisation (IAEA) einzurichten.
Bei seiner Rückkehr zum Frontier Model Forum bekräftigte Microsoft-Präsident Brad Smith, dass die Initiative ein wichtiger Schritt für Technologieunternehmen sei, um gemeinsam den verantwortungsvollen Einsatz von KI zu fördern und so der gesamten Menschheit Vorteile zu bringen. Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, betonte, dass die fortschrittliche KI-Technologie das Potenzial habe, der Gesellschaft tiefgreifende Vorteile zu bringen, und dass hierfür Aufsicht und Steuerung erforderlich seien.
[Anzeige_2]
Quelle
Kommentar (0)