Die Google I/O 2025 letzte Woche stand ganz im Zeichen der künstlichen Intelligenz, die noch tiefer in Googles Produkte und Dienste integriert wird.
Das Ziel ist klar: KI soll für jeden zugänglich, nützlich und allgegenwärtig werden – vom Smartphone bis zur intelligenten Brille.
Auch eine Woche später sind wir noch am Verarbeiten. Das war mal wieder ein „7 Tage wie ein Jahr“-Moment.
Wir haben die Gelegenheit genutzt und hier ein Hybridprojekt draus gemacht:
- Zusammenfassung und Konsolidierung über Gemini Deep Research
- Erstellung eines Podcasts über Canvas
- Einbindung des Veo 3 Keynote-Videos
Wir haben außerdem unten alle Quellen angefügt – damit kannst du es im Detail nachlesen!
Ready? Los geht’s!
Google I/O 2025
Zum Anschauen:
Die wichtigsten Neuerungen bei Google
Die Integration von Gemini, Googles fortschrittlichem KI-Modell, steht klar im Mittelpunkt:
Suchen, Shoppen, Recherchieren: Alles anders!
- KI-Modus für alle: Der KI-Modus in der Google Suche wird nun flächendeckend in den USA ausgerollt und ist auch in weiteren Ländern verfügbar. Er liefert direkt in der Suche zusammenfassende, KI-generierte Antworten auf jegliche (An)Fragen.
- Deep Search: Eine Erweiterung des KI-Modus, die noch gründlichere Antworten auf sehr spezifische oder ungewöhnliche Anfragen ermöglicht. (wir haben bereits hier berichtet, diese Zusammenfassung habe ich mit Hilfe von Deep Research in Gemini erstellt!)
- Projekt Astra / Search Live: KI, die in Echtzeit über die Kamera interagieren kann. Später in diesem Sommer soll eine Vorabversion namens Search Live in den KI-Modus kommen, die es der Suche ermöglicht, visuellen Input in Echtzeit zu interpretieren (z.B. Fragen zu einem Objekt zu stellen, das man gerade sieht).
- Projekt Mariner / Agentic Capabilities: Die Suche bekommt „Agenten“-Fähigkeiten, die erste Schritte zur Automatisierung von Aufgaben wie dem Buchen von Veranstaltungstickets oder Restaurantreservierungen ermöglichen.
- Shopping-Erlebnisse: Der KI-Modus verbessert das Online-Shopping erheblich. Nutzer können Kleidung virtuell anprobieren oder KI-gestützte Preisverfolgung nutzen.
Da stellt sich schon die Frage: Wie wird sich das „Googlen“ weiterentwickeln? Bereits seit Perplexity ist das schon anders. Und auch ChatGPT funktioniert hier super. Aber wie ist das, wenn die größte Suchmaschine der Welt plötzlich anders funktioniert?
Der Gemini Assistent wird noch schlauer
- Interaktiver & Persönlicher: Gemini kann jetzt personalisierte Quizze erstellen oder sich mit Google-Apps wie Maps, Kalender, Tasks und Keep verbinden, um im Gespräch direkt Aktionen auszuführen.
- Kamera- & Bildschirmfreigabe in Live: In der Gemini-App (iOS) kann Gemini jetzt auch visuell Informationen von der Kamera oder dem Bildschirm aufnehmen, um noch besser assistieren zu können.
- „Create“-Menü im Canvas: Ein neues Menü hilft Gemini, Text in Infografiken, Webseiten-Entwürfe oder sogar podcastartige Audio Overviews umzuwandeln (das kennst du vielleicht bereits von NotebookLM).
- Dokumenten-Analyse (Deep Research): Gemini kann jetzt PDFs und Bilder direkt verarbeiten oder bald auch Dokumente aus Google Drive und Gmail verknüpfen, um tiefgehende Recherchen basierend auf den eigenen Daten und öffentlichen Informationen durchzuführen.
- Agent Mode (Experimentell): Eine experimentelle Funktion für Google AI Ultra-Abonnenten, bei der Gemini Aufgaben im Auftrag des Nutzers erledigt.
- Gemini in Chrome: Für Abonnenten von Google AI Pro und Ultra ist Gemini jetzt auch direkt in Chrome auf dem Desktop verfügbar.
Kreativitätsbooster (Veo 3 und mehr)
- Veo 3 (Video mit Audio): Googles fortschrittliches KI-Modell zur Videogenerierung kann nun auch Audio erzeugen und bietet erweiterte Steuerungsoptionen (z. B. Kamerafahrten). Verfügbar für Google AI Ultra-Abonnenten und in Vertex AI.
Und das ist SO KRASS! Meine Faszination ist auch jetzt -eine Woche später – ungebrochen.
Dieses Opening-Video haben sie mit Veo3 generiert. Die Charaktere können sprechen, flüstern, singen, … Es gibt Geräusche und sogar Musik!
The future is now.
Nach diesem Knüller wird es schwer anzukommen aber es geht noch weiter! WOAH!
- Imagen 4 (Bilder): Das neueste Bildgenerierungsmodell liefert noch schärfere, realistischere Bilder und ist bis zu 10x schneller. Es ist in der Gemini App verfügbar und wird in Whisk sowie Vertex AI bereitgestellt.
- Flow (KI-Filmemachen): Ein neues Tool, das von DeepMind-Modellen angetrieben wird und filmische Werke mit Kontrolle über Charaktere und Szenen erstellen lässt. Verfügbar für Google AI Pro und Ultra Abonnenten in den USA.
- Music AI Sandbox & Lyria 2: Der Zugang zu Googles Musik-KI (Lyria 2) wurde erweitert, sodass Kreative in YouTube Shorts und Unternehmen über Vertex AI darauf zugreifen können, um vielfältige Vocals und Musik zu generieren.
Hardware & Kommunikation mit KI-Power
- Android XR & Smarte Brillen: Die ersten Android XR-Geräte, wie Samsungs Project Moohan Headset, kommen Ende des Jahres. Google arbeitet auch an Android XR-Brillen, die Gemini-Integration für Messaging, Navigation, Fotos und Echtzeit-Sprachübersetzung bieten sollen. Partnerschaften mit Gentle Monster und Warby Parker sollen ansprechende Designs ermöglichen.
- Google Beam (früher Project Starline): Die 3D-Videotelefonie-Technologie entwickelt sich zu einer Plattform für realitätsnahe Remote-Meetings. Google arbeitet mit Zoom und HP zusammen, um erste Geräte auf den Markt zu bringen.
- Sprachübersetzung in Google Meet: Echtzeit-Sprachübersetzung mit Beibehaltung von Stimmqualität und Tonfall ist jetzt in Google Meet verfügbar. Damit sind Sprachbarrieren einfürallemal Geschichte
Deep Dive: Neuerungen für Entwickler & Forschung
Außerdem gab es für Entwickler und Forschende zahlreiche Ankündigungen, die die Entwicklung von KI-Anwendungen beschleunigen und neue Möglichkeiten eröffnen. Ich hab auch das kurz zusammengefasst:
Gemini für Entwickler
Über 7 Millionen Entwickler nutzen Gemini. Die Nutzung auf Vertex AI ist um das 40-fache gestiegen. Neue Funktionen im Gemini API und Google AI Studio ermöglichen fortschrittlichere Agenten und multimodale Anwendungen.
- Live API: Ermöglicht den Aufbau von Konversationserlebnissen mit Audio- und Videoeingabe sowie nativer Audioausgabe für Modelle.
- Gemma 3n: Ein neues, offenes, multimodales Modell, das auf Smartphones, Laptops und Tablets läuft und Audio, Text, Bild und Video verarbeitet. Es ist extrem effizient und ressourcenschonend.
- MedGemma: Ein offenes Modell speziell für multimodale medizinische Text- und Bildverständnisse, das die Entwicklung von Gesundheitsanwendungen erleichtern soll (Teil der Health AI Developer Foundations).
- SignGemma: Ein kommendes offenes Modell, das Gebärdensprache (insbesondere Amerikanische Gebärdensprache) in gesprochenen Text übersetzen kann, um neue Anwendungen für gehörlose und schwerhörige Nutzer zu ermöglichen.
- Stitch: Ein KI-gestütztes Tool, das hochwertige UI-Designs und Frontend-Code aus natürlicher Sprache oder Bildprompts generiert.
- Jules: Ein asynchroner Code-Agent für GitHub-Repositories, der Codebasen verbessern und verstehen kann. Jetzt in Beta.
Android Entwicklung
- ML Kit GenAI APIs: Neue APIs für On-Device-KI-Aufgaben mit Gemini Nano.
- Gemini in Android Studio: KI-Unterstützung für den gesamten Entwicklungszyklus, einschließlich Journeys (für End-to-End-Tests) und Version Upgrade Agent (für automatische Abhängigkeits-Updates).
- Wear OS 6 (Developer Preview): Neuerungen für Wear OS, inklusive Material 3 Expressive und verbesserter Watch Face Tools.
Web-Entwicklung
- Einfachere Karussell-Erstellung: Neue CSS-Primitive vereinfachen den Bau interaktiver Karussells.
- Neue experimentelle APIs: Wie die Interest Invoker API für deklaratives Umschalten von Popover-Elementen.
- KI in Chrome DevTools: Gemini-Integration zur Beschleunigung von Debugging-Workflows und Performance-Optimierung.
- Neue Built-in AI APIs (Gemini Nano): On-Device-APIs im Browser für Funktionen wie Summarizer, Language Detector, Translator.
Firebase
- Firebase Studio: Eine Cloud-basierte, KI-gestützte Arbeitsumgebung (powered by Gemini 2.5), die es Entwicklern ermöglichen soll, Full-Stack-Apps von der Idee bis zur Veröffentlichung in Minuten zu erstellen.
- Firebase AI Logic: Vereinfacht die Integration von Googles GenAI-Modellen in Client-Apps.
Forschungshighlights
- LearnLM: Eine Familie von für Lernzwecke feinabgestimmten Modellen, die Gemini 2.5 zur weltweit führenden KI für Lernanwendungen macht.
- AMIE: Ein Forschungs-KI-Agent für medizinische Diagnosegespräche, nun auch multimodal, der Klinikern bei der Diagnose helfen kann.
- FireSat: Eine Satellitenkonstellation mit KI zur frühzeitigen und präzisen Erkennung von Waldbränden.
- Quantum AI: Fortschritte beim Quantencomputing und Quantenfehlerkorrektur mit dem Willow-Chip.
WOW! Google haut mich vom Hocker…
Einmal mehr kann ich sagen: WOW!
Hier Schrittzuhalten (alleine schon informiert zu bleiben) wird immer anspruchsvoller. Was früher Monate dauerte, geschieht jetzt in Tagen.
Google hat hier – salopp gesprochen – echt mal wieder was rausgehauen. Ich bin sehr gespannt die ganzen Entwicklungen in Aktion zu sehen, zu testen und zu wie sich diese Entwicklungen in den kommenden Monaten in unserem Alltag manifestieren werden.

Quellen
- Google I/O 2025 – Offizieller Überblick:
https://io.google/2025/explore/ - Alle Ankündigungen im Google Blog:
100 Dinge, die wir auf der I/O angekündigt haben - Developer Keynote Recap:
Was Entwickler auf der Google I/O 2025 erwartete - Google Research Highlights:
Google Research auf der Google I/O 2025 - Google Home Developer-Updates:
Google Home I/O 2025 - Engadget I/O 2025 Recap:
Engadget – Google I/O 2025: KI-Updates, Android XR, Google Beam und alles andere, was auf der jährlichen Keynote angekündigt wurde - TechRadar: 12 nützliche neue Tools:
TechRadar – Die 12 nützlichen neuen Tools von Google I/O 2025, die Sie jetzt ausprobieren können - TheOutpost.ai (zitiert Ars Technica):
Googles KI-Fortschritte auf der I/O lassen Apples Siri im Staub liegen