Während OpenAI macht seine großen KI-Ankündigungen wahr über 12 TageGoogle hat beschlossen, uns mit der Ankündigung das gesamte Kit und Kaboodle zu überlassen Zwillinge 2.0. Und wir haben gerade einen weiteren ersten Blick auf Googles neuen Prototyp einer Datenbrille geworfen.
Google behauptet, dass es mit Gemini 2 in die „Agenten-Ära“ eintritt und eine Fülle von KI-Agenten enthüllt Möglichkeit, eigene KI-Agenten zu erstellen. Einer der interessanteren Ankündigungen von Agenten dreht sich um das erste Projekt Astra während der Google I/O im Mai gehänselt wo es die Show gestohlen hat.
Project Astra soll ein „universeller KI-Agent“ sein, der über die Kamera und Spracherkennungssoftware Ihres Telefons Aufgaben im Alltag bearbeitet. Dies wird sich in eine intelligente Brille a la verwandeln Metas Ray Bans. Sundar Pichai, CEO von Google, neckte Astra in einem Video zu X und Google hat ein gepostet YouTube Video, das Astra in Aktion zeigt.
Während E/A Das Unternehmen demonstrierte potenzielle Astra-Fähigkeiten, die über eine Smart-Brille funktionieren. Während der KI-Agent zunächst auf Mobiltelefonen verfügbar sein soll, zeigte der Smart-Brillen-Teaser wirklich, wie er auf anderen Plattformen funktionieren könnte.
Google behauptete, Astra könne die Welt verstehen und auf sie reagieren, „wie Menschen es tun“. Wie bei vielen KI-Enthüllungen in diesem Jahr wurde gezeigt, dass Astra auf und mit Konversationssprache reagiert. Während der Mai-Demo schien das Modell über ein beeindruckendes räumliches Verständnis und eine beeindruckende Videoverarbeitung zu verfügen.
Ursprünglich wurde versprochen, Astra noch vor Jahresende zu veröffentlichen. Im Oktober enthüllte Google-Chef Sundar Pichai dies jedoch während einer Telefonkonferenz zu den Ergebnissen Astra wurde auf das Jahr 2025 verschoben. Daher hatten wir vor Jahresende nicht mit vielen Astra-Neuigkeiten gerechnet.
Im Rahmen der heutigen Ankündigung enthüllte Google mehrere Aktualisierungen des Modells:
- Besserer Dialog – Astra kann mehrere Sprachen wie Französisch und Tamil verstehen und diese mischen, einschließlich Akzenten und „ungewöhnlichen Wörtern“
- Zugriff auf Google-Apps – Astra kann auf Google Maps, Lens und Search zugreifen, um Eingaben zu beantworten
- Verbessertes Gedächtnis – Der Agent verfügt nun über 10 Minuten Sitzungsspeicher und kann sich frühere Gespräche merken, um ihn persönlicher zu gestalten
- Schnellere Latenz – Astra kann mit neuen nativen Audio-Verständnis- und Streaming-Funktionen „Sprache etwa mit der Latenzzeit einer menschlichen Konversation verstehen“.
Google hat keinen genaueren Zeitplan dafür bereitgestellt, wann die Leute Astra in der realen Welt sehen könnten.
Im Ankündigungsbeitrag von Google gab das Unternehmen jedoch bekannt, dass sein Testerprogramm damit beginnt, das Projekt Astra anhand von Brillenprototypen zu evaluieren. Wir fragen uns, ob diese Brille das ist neue Smart-Brille von Samsung Wir gehen davon aus, dass wir im Januar bekannt gegeben werden Partnerschaft mit Google und Qualcomm für eine neue XR-Plattform.
Diese Brille soll noch keine Kamera haben. Die im obigen Video gezeigte Brille scheint etwas anderes zu sein. Meta mag bei Datenbrillen führend sein, aber auch andere Unternehmen holen auf Xreal und seine neue X1-basierte AR-Brille.
Google fügte hinzu, dass es daran arbeite, Astra in die Gemini-App und andere Formfaktoren zu integrieren, was auf mehr als nur Telefone und Brillen hindeutet.