Apple, Microsoft, Meta und Google haben alle kürzlich neue KI-Modelle mit weniger „Parametern“, aber dennoch leistungsstarken Funktionen veröffentlicht. Mit diesem Schritt wollen Technologiekonzerne auch finanziell eingeschränkte Unternehmen dazu ermutigen, KI weiterhin zu nutzen.
Abbildung: FT
Generell gilt: Je höher die Anzahl der Parameter, desto leistungsfähiger ist die KI-Software und desto komplexer und differenzierter sind ihre Aufgaben. Das neueste GPT-4o-Modell von OpenAI und Gemini 1.5 Pro von Google, die beide diese Woche angekündigt wurden, verfügen schätzungsweise über mehr als eine Billion Parameter. In der Zwischenzeit trainiert Meta eine Version seines Open-Source-Llama-Modells mit 400 Milliarden Parametern.
Bedenken hinsichtlich der Daten- und Urheberrechtshaftung haben außerdem dazu geführt, dass große Technologieunternehmen wie Meta und Google kleine Sprachmodelle mit nur wenigen Milliarden Parametern veröffentlichen, die billiger, energieeffizient und anpassbar sind, weniger Energie für Training und Ausführung benötigen und außerdem die Speicherung sensibler Daten verhindern können.
„Indem man diese hohe Qualität zu geringeren Kosten erhält, stehen den Kunden tatsächlich mehr Anwendungen zur Verfügung“, sagte Eric Boyd, Corporate Vice President der Azure AI Platform von Microsoft, die KI-Modelle an Unternehmen verkauft.
Google, Meta, Microsoft und das französische Startup Mistral haben ebenfalls kleine Sprachmodelle veröffentlicht, zeigen aber dennoch Fortschritte und können sich besser auf bestimmte Aufgaben konzentrieren.
Nick Clegg, Metas Präsident für globale Angelegenheiten, sagte, das neue 8-Milliarden-Parameter-Modell von Llama 3 sei mit GPT-4 vergleichbar. Microsoft sagt, dass sein kleines Phi-3-Modell mit 7 Milliarden Parametern GPT-3.5, die vorherige Version des OpenAI-Modells, übertrifft.
Mikrochips können Aufgaben auch lokal auf dem Gerät verarbeiten, anstatt Informationen an die Cloud zu senden. Dies könnte für datenschutzbewusste Kunden interessant sein, die sicherstellen möchten, dass die Informationen im Netzwerk bleiben.
Charlotte Marshall, Managerin bei der Anwaltskanzlei Addleshaw Goddard, sagte, dass „eine der Herausforderungen, mit denen viele unserer Kunden bei der Einführung generativer KI-Produkte konfrontiert waren“, die Einhaltung der gesetzlichen Anforderungen hinsichtlich der Datenverarbeitung und -übertragung sei. Die kleineren Modelle böten „Unternehmen die Möglichkeit, regulatorische Bedenken und Kostenprobleme zu überwinden“, sagte sie.
Kleinere Modelle ermöglichen auch die Ausführung von KI-Funktionen auf Geräten wie Mobiltelefonen. Das Modell „Gemini Nano“ von Google ist in den neuesten Pixel-Telefonen und dem neuesten S24-Smartphone von Samsung integriert.
Apple hat außerdem bekannt gegeben, dass das Unternehmen an der Entwicklung von KI-Modellen für seinen Verkaufsschlager iPhone arbeitet. Letzten Monat veröffentlichte der Riese aus dem Silicon Valley OpenELM, ein kleines Framework zur Ausführung textbasierter Aufgaben.
Boyd von Microsoft sagte, die kleineren Modelle würden „zu interessanten Anwendungen bis hin zu Telefonen und Laptops“ führen.
OpenAI-Direktor Sam Altman sagte im November, dass das Unternehmen auch KI-Modelle unterschiedlicher Größe an Kunden lizenziere und diese „unterschiedlichen Zwecken dienen“. „Es gibt einige Dinge, die kleinere Modelle wirklich gut machen“, sagte er. Darüber freue ich mich sehr.“
Altman fügte jedoch hinzu, dass sich OpenAI weiterhin auf die Entwicklung größerer und skalierbarer KI-Modelle konzentrieren werde, einschließlich der Fähigkeit zum Denken, Planen und Ausführen von Aufgaben und letztendlich zur Erlangung einer Intelligenz auf menschlichem Niveau.
Hoang Hai (laut FT)
[Anzeige_2]
Quelle: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Kommentar (0)