Google hat mit Gemini 2.0, der nächsten Generation seines KI-Modells, das "Agentic Era" eingeläutet, in dem KI-Agenten Aufgaben für Nutzer erledigen. Das leistungsstärkere und schnellere Gemini 2.0 Flash unterstützt multimodale Ein- und Ausgaben, Toolnutzung und wird in verschiedene Google-Produkte integriert, wobei der Fokus auf Sicherheit und Ethik liegt.
Google hat mit Gemini 2.0 die nächste Generation seines KI-Modells vorgestellt und proklamiert damit den Beginn eines neuen "Agentic Era", eines Zeitalters, in dem KI-Agenten Aufgaben im Auftrag des Nutzers erledigen. Google CEO Sundar Pichai betont in einem Blogbeitrag (blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024), dass Google seit über 26 Jahren daran arbeitet, Informationen zu organisieren und zugänglich zu machen, und Gemini 2.0 diesen Ansatz nun auf eine neue Stufe heben soll.
Die erste Version, Gemini 2.0 Flash, ist laut Google DeepMind CEO Demis Hassabis und CTO Koray Kavukcuoglu (blog.google/technology/google-deepmind/google-gemini-ai-update-december-2024) ein leistungsstarkes Modell mit geringer Latenz. Es basiert auf Gemini 1.5 Flash und übertrifft dieses laut Ars Technica (arstechnica.com/information-technology/2024/12/google-goes-agentic-with-gemini-2-0s-ambitious-ai-agent-features) in Benchmarks sogar bei doppelter Geschwindigkeit. Neben multimodalen Eingaben wie Bildern, Videos und Audio unterstützt Gemini 2.0 Flash nun auch multimodale Ausgaben, einschließlich nativer Bilderzeugung und mehrsprachiger Text-zu-Sprache-Audio. Zusätzlich kann es Tools wie die Google-Suche, Codeausführung und benutzerdefinierte Funktionen von Drittanbietern nutzen.
Entwicklern steht das neue Modell über die Gemini API in Google AI Studio und Vertex AI zur Verfügung. Die Bildgenerierungs- und Text-zu-Sprache-Funktionen sind zunächst, wie The Register berichtet (www.theregister.com/AMP/2024/12/11/google_gemini_20_flash_shines), nur für Early-Access-Partner verfügbar. Google plant, die Technologie in Produkte wie Android Studio, Chrome DevTools und Firebase zu integrieren.
Im Zentrum von Gemini 2.0 steht die Fähigkeit, als "Agent" zu agieren und Aufgaben für den Nutzer zu erledigen. Google investiert, wie Cointelegraph berichtet (cointelegraph.com/news/google-touts-new-agentic-era-ai-agents-on-gemini-2-0), stark in die Entwicklung solcher "agentic models", die die Welt um den Nutzer besser verstehen, mehrere Schritte vorausdenken und unter dessen Kontrolle handeln können.
Google demonstriert die Fähigkeiten von Gemini 2.0 anhand verschiedener Forschungsprojekte. Project Astra, ein Prototyp eines visuellen KI-Assistenten für Android-Smartphones, wurde aktualisiert und kann nun mehrere Sprachen verarbeiten, Google Search und Maps nutzen und sich an Konversationen erinnern, wie The Verge berichtet (www.theverge.com/2024/12/11/24317436/google-deepmind-project-astra-mariner-ai-agent). Mit Project Mariner, einer neuen Chrome-Erweiterung, werden Nutzer bei webbasierten Aufgaben unterstützt, indem die Erweiterung Bildschirminhalte und Browserelemente versteht. Für Entwickler gibt es Jules, einen KI-gestützten Code-Agenten, der bei der Planung und Ausführung von Programmieraufgaben hilft.
Ein weiteres Beispiel ist die Integration von Gemini 2.0 in die Google-Suche. Gemäß InfoWorld (www.infoworld.com/article/3622598/google-unveils-gemini-2-0-ai-model-for-agentic-era.html) können Nutzer nun komplexere Fragen stellen, darunter auch fortgeschrittene mathematische Gleichungen, multimodale Anfragen und Programmieraufgaben. Die KI-Overviews, die bereits von einer Milliarde Menschen genutzt werden, sollen durch Gemini 2.0 noch leistungsfähiger werden.
Google betont, dass sich Gemini 2.0 noch in der frühen Entwicklungsphase befindet und im Laufe der Zeit durch Updates und größere Modelle erweitert wird. Das Unternehmen hebt die Bedeutung von Sicherheit und Ethik bei der KI-Entwicklung hervor. Gemini 2.0 wurde umfangreichen Risikobewertungen unterzogen und verfügt über Sicherheitsmaßnahmen, um Missbrauch zu verhindern und den Datenschutz zu gewährleisten.
Quellen: