Google I/O: KI Gemini hält in alle Dienste Einzug

Kleiner Blick über den Tellerrand

Foto von der Bühne der Google I/O Entwicklerkonferenz

Genau wie Apple hält auch der große Tech-Rivale Google jährlich eine eigene Entwicklerkonferenz unter dem Namen Google I/O ab. Am Ende der Veranstaltung, die im Shoreline Amphitheater in Mountain View stattfand, verriet Google-CEO Sundar Pichai, dass das Unternehmen 121 Mal „KI“ gesagt habe. Dies war auch im Wesentlichen der Kern der zweistündigen Keynote von Google – die Einbindung von KI in jede Google-App und jeden Google-Dienst. Wir listen alle wichtigen Updates, die Google auf der Veranstaltung angekündigt hat, in aller Kürze auf.

Neues KI-Modell Gemini 1.5 Flash

Zu den wichtigsten Neuerungen der Entwicklerkonferenz gehört ein brandneues KI-Modell namens Gemini 1.5 Flash, das laut Google auf Geschwindigkeit und Effizienz optimiert ist. Flash ist zwischen Gemini 1.5 Pro und Gemini 1.5 Nano angesiedelt, dem kleinsten Modell des Unternehmens, das lokal auf den Gerät läuft.


Google erklärte, dass man Flash geschaffen habe, weil Entwickelnde ein leichteres und preiswerteres Modell als Gemini Pro wollten, um KI-gestützte Apps und Dienste zu entwickeln. Später in diesem Jahr wird Google das Kontextfenster von Gemini auf zwei Millionen Token verdoppeln, was gleichzeitig bedeutet, dass die KI in der Lage sein wird, zwei Stunden Video, 22 Stunden Audio, mehr als 60.000 Codezeilen oder mehr als 1,4 Millionen Wörter gleichzeitig zu verarbeiten.

Vorschau auf KI-Assistent „Project Astra“

Google zeigte mit Project Astra auch eine frühe Version eines universellen Assistenten, der von KI angetrieben wird und von Google als KI-Agenten bezeichnet wurde, „der im täglichen Leben hilfreich sein kann“. In einem Video bewegt sich eine Astra-Nutzerin durch das Londoner Google-Büro, hält ihr Telefon hoch und richtet die Kamera auf verschiedene Dinge – einen Lautsprecher, einen Code auf einem Whiteboard und ein Fenster – und unterhält sich auf natürliche Weise mit der App über das, was ihr erscheint. In einem der beeindruckendsten Momente des Videos sagt die App der Person korrekt, wo sie ihre Brille vergessen hat, ohne dass die Brille jemals hervorgeholt wurde.

Das Video endet mit einer überraschenden Wendung: Als die Nutzerin die fehlende Brille findet und trägt, erfährt man, dass sie über ein eingebautes Kamerasystem verfügt und in der Lage ist, mit Hilfe von Project Astra nahtlos ein Gespräch mit der Nutzerin zu führen. Dies könnte möglicherweise darauf hindeuten, dass Google an einem Konkurrenten zu Metas intelligenter Brille Ray Ban arbeitet.

Ask Google Photos & Medien-Engines Veo und Imagen 3

Foto von der Bühne der Google I/O Entwicklerkonferenz

Zunächst für Personen mit Google One-Abonnement in den USA erhältlich, wird man mit Hilfe von KI Google Photos komplexe Fragen stellen können, beispielsweise „Zeige mir das beste Foto von jedem Nationalpark, den ich besucht habe“. Google Photos wird GPS-Informationen sowie eine eigene Einschätzung dessen, was „am besten“ ist, verwenden, um Optionen zu präsentieren. Man kann Google Photos auch bitten, Bildunterschriften zu erstellen, um Fotos in sozialen Medien zu veröffentlichen. Das neue Feature soll in den nächsten Monaten eingeführt werden.

Zudem stellte Google KI-basierte Medien-Engines unter den Namen Veo und Imagen 3 vor. Veo soll als Konkurrenz zu OpenAIs Sora agieren und „hochqualitative“ Videos mit bis zu 1080p-Auflösung und über einer Minute Länge generieren. Auch filmische Konzepte wie Zeitraffer soll die KI verstehen. Imagen 3 ist ein Text-Bild-Generator, der laut Google noch besser mit Text umgehen kann als die Vorgängerversion Imagen 2. Das Ergebnis soll einen „unglaublichen Detailgrad“ für „fotorealistische, lebensechte Bilder“ und weniger Artefakte liefern – im Wesentlichen eine Konkurrenz zu OpenAIs DALLE-3.

Großes Update für die Google-Suche

Foto von der Bühne der Google I/O Entwicklerkonferenz

Google plant zudem, große Änderungen an der eigenen Suchmaschine vorzunehmen. So sollen noch komplexere und längere Suchanfragen möglich sein, die mit Hilfe von Googles KI Gemini beantwortet werden. Auch das seit einem Jahr getestete Google AI Overviews wird nun für Millionen von Usern zunächst in den USA eingeführt: Die Google-Suche wird nun standardmäßig KI-generierte Antworten über den Ergebnissen anzeigen. Bis Ende des Jahres will man das Feature für mehr als eine Milliarde User auf der ganzen Welt bereitstellen.

Gemini für Android

Foto von der Bühne der Google I/O Entwicklerkonferenz

Darüber hinaus will Google Gemini direkt in Android integrieren. Wenn Android 15 später in diesem Jahr veröffentlicht wird, wird Gemini die App, das Bild oder das Video kennen, das man gerade ausführt, und man wird in der Lage sein, der KI kontextspezifische Fragen zu stellen.

Während der Google I/O-Keynote gab auch eine Reihe von anderen kleineren Updates: Google plant, digitale Wasserzeichen zu KI-generierten Videos und Texten hinzuzufügen, Gemini in der Seitenleiste von Gmail und Docs zugänglich zu machen, einen virtuellen KI-Teamkollegen in Workspace betreiben, sowie Telefongespräche mithören und dabei Scam-Versuche erkennen will. Im Blog von Google gibt es zu den Themen der Entwicklerkonferenz weitere Infos.

Hinweis: Dieser Artikel enthält Affiliate-Links. Bei Käufen über diese Links erhalten wir eine Provision, mit dem wir diesen Blog finanzieren. Der Kaufpreis bleibt für euch unverändert.

Anzeige

Kommentare 1 Antwort

  1. Gruselig, wenn man bedenkt, dass das Geschäftsprinzip die Daten der Nutzer sind, die man vor allem Werbetreibenden verkaufen will. Aber sind das wirklich die Einzigen???

    Für mich ist klar: Geht gar nicht. Kein Google + Meta

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Copyright © 2024 appgefahren.de