Das mit Spannung erwartete KI-Modell mit dem Namen „Gemini“ ist laut Google in der Lage, komplexe Informationen differenzierter zu analysieren und zu verstehen als die bisherige Technologie von Google. „Diese neue Paradigmenära stellt eine der größten wissenschaftlichen und technischen Anstrengungen dar, die wir als Unternehmen unternommen haben“, sagte Alphabet-CEO Sundar Pichai in einem Blogbeitrag.
Gemini umfasst drei Versionen: Gemini Ultra, Pro und Nano
Seit OpenAI vor etwa einem Jahr ChatGPT auf den Markt gebracht hat, arbeitet Google mit Hochdruck daran, KI-Software zu entwickeln, die mit den Produkten des von Microsoft unterstützten Unternehmens mithalten kann. Google hat seinem KI-Chatbot Bard (genauer gesagt Gemini Nano) ein neues Gemini-Modellteil hinzugefügt und angekündigt, dass es plant, Anfang nächsten Jahres die fortschrittlichste Version von Gemini, Gemini Ultra, über Bard herauszubringen. Darüber hinaus hat das Unternehmen eine weitere Version von Gemini namens Gemini Pro auf den Markt gebracht.
Laut Google ist jede Version von Gemini für die Nutzung einer unterschiedlichen Verarbeitungsleistung ausgelegt. Laut Google ist die leistungsstärkste Version für den Betrieb in Rechenzentren konzipiert, während die kleinste Version effizient auf Mobilgeräten läuft.
Eli Collins, Vizepräsident von DeepMind, sagte, Gemini sei das größte KI-Modell, das seine Einheit entwickelt habe, und es sei „deutlich“ günstiger, den Benutzern die Bereitstellung zu ermöglichen, als die größeren vorherigen Modelle des Unternehmens für maschinelles Lernen. Dadurch ist es nicht nur leistungsfähiger, sondern auch deutlich effizienter. Das Training des neuesten Modells erfordere noch immer eine beträchtliche Menge an Rechenleistung, fügte er hinzu, aber Google verbessere seinen Prozess.
Darüber hinaus kündigte Alphabet eine neue Generation benutzerdefinierter TPU-KI-Chips namens Cloud TPU v5p an, die zum Trainieren großer KI-Modelle konzipiert sind und in Gruppen von 8.960 Chips zusammengefasst sind. Die neue Version des Client-Prozessors kann große Sprachmodelle fast dreimal schneller trainieren als vorherige Generationen.
Das Unternehmen teilte mit, dass der neue Chip Entwicklern ab dem 6. Dezember in einer „Vorschau“-Form zur Verfügung steht.
[Anzeige_2]
Quellenlink
Kommentar (0)