Im Rahmen der neuesten Richtlinie definiert Meta zwei Arten von KI-Systemen, die das Unternehmen in Zukunft nicht mehr veröffentlichen möchte.
Das Dokument „Frontier AI Framework“ identifiziert zwei Arten von KI-Systemen, die Meta nicht veröffentlichen möchte: „mit hohem Risiko“ und „ernsthaftem Risiko“. Dies zeigt, dass der Mutterkonzern Facebook gegenüber KI-Technologien vorsichtiger ist.
Zuvor hatte CEO Mark Zuckerberg versprochen, künstliche allgemeine Intelligenz (AGI) alltäglich zu machen.
Gemäß der Definition von Meta können sowohl Systeme mit „hohem Risiko“ als auch Systeme mit „schwerem Risiko“ Cyber-, Bio- und Chemieangriffe unterstützen. Der Unterschied besteht jedoch darin, dass Systeme mit „schwerem Risiko“ zu „ungemilderten katastrophalen Folgen“ führen.
Meta schlägt eine Reihe von Szenarien vor, etwa das automatische Infiltrieren einer gut geschützten Unternehmensumgebung oder die Verbreitung einer hochwirksamen biologischen Waffe.
Dies sind die „dringendsten“ Szenarien, die nach Ansicht des Unternehmens mit der Veröffentlichung eines leistungsfähigen KI-Systems eintreten könnten.
Die Systemeinstufung basiert nicht auf empirischen Tests, sondern auf dem Input interner und externer Experten.
Wenn ein System als „hochriskant“ eingestuft wird, beschränkt Meta den Zugriff auf das System intern und startet es erst, wenn Minderungsmaßnahmen vorhanden sind, um das Risiko auf ein moderates Niveau zu senken.
Wenn ein System hingegen als „kritisches Risiko“ eingestuft wird, ergreift Meta nicht näher spezifizierte Schutzmaßnahmen, um eine Gefährdung des Systems zu verhindern, und stoppt die Entwicklung, bis die Gefahr geringer wird.
Laut TechCrunch soll das Frontier AI Framework offenbar die Kritik an Metas offenem Ansatz bei der Systementwicklung entkräften.
Meta macht den Quellcode seiner KI-Technologie häufig öffentlich, anstatt ihn wie OpenAI zu verschließen. Für Unternehmen hat der offene Ansatz sowohl Vor- als auch Nachteile. Das KI-Modell „Llama“ des Unternehmens wurde Hunderte Millionen Mal heruntergeladen, doch soll Llama auch dazu missbraucht worden sein, einen den USA feindlich gesinnten Chatbot zu entwickeln.
Mit der Ankündigung des Frontier AI Framework hat Meta möglicherweise DeepSeek im Visier, das derzeit bekannteste chinesische KI-Startup. DeepSeek verfolgt ebenfalls eine Open-Source-KI-Strategie, verfügt jedoch nicht über viele Sicherheitsvorkehrungen und kann leicht so verändert werden, dass schädliche Ergebnisse erzeugt werden.
Laut Meta kann die Technologie bei der Abwägung der Vor- und Nachteile bei Entscheidungen zur Entwicklung und Anwendung fortschrittlicher KI der Gesellschaft auf eine Weise dienen, die sowohl den Nutzen als auch ein angemessenes Risikoniveau aufrechterhält.
(Laut TechCrunch)
[Anzeige_2]
Quelle: https://vietnamnet.vn/meta-co-the-dung-phat-trien-cac-he-thong-ai-qua-rui-ro-2368745.html
Kommentar (0)