Today we are introducing Gemini 3, our most intelligent model that can help bring any idea to life. Built on a foundation of state-of-the-art reaso...
For further actions, you may consider blocking this person and/or reporting abuse
Congrats on the launch! Antigravity is really slick after a few hours of playing around ✨️
Just activated it :
ALready adopted to produce some good looking reports
Interesting!
Thanks, it's par of the current hackathon :
⏳geol, the cli to efficiently manage EOLs like a boss
adriens ・ Oct 29
Nice
Good luck
So far so good after a few minutes. Immediately caught a logical error that could have resulted in an unlikely race condition and treated it contextually appropriately. Pretty darn impressive.
Messing around with Antigravity. No hard learnings yet, but very optimistic about moving to this.
Curious to see how Gemini 3 actually feels in day-to-day coding, but the benchmarks and agentic tooling look promising.
Wow! A huge performance gap g3 and g2.5.
Probably doesn't apply to how I interact with it right now, but really interesting demo
Wow, Google, das ist mal eine echte Ansage! Als Dev, der schon ewig mit verschiedenen KI-Modellen herumspielt, muss ich sagen: Gemini 3 Pro wirkt nicht wie ein einfaches Update, sondern wie ein echter Paradigmenwechsel hin zu echten Agent-Systemen.
Besonders das Thema Agentic Coding hat es mir angetan. Die 54,2 % im Terminal-Bench 2.0 sind ja nicht nur Statistik, das ist der Beweis, dass wir hier endlich einen echten 'Kollegen' in der IDE bekommen und nicht nur eine schlaue Autovervollständigung. Die Integration in Google Antigravity und der Umgang mit kompletten Codebases – ohne den Kontext beim Refactoring zu verlieren – ist genau das, worauf wir alle gewartet haben. Schluss mit dem ständigen Context-Switching; Gemini scheint diesen Pain Point echt zu lösen.
Und das Konzept von 'Vibe Coding'? Einfach irre. Wenn man wirklich von einer abstrakten Idee mit einem einzigen Prompt zu einer funktionierenden App kommt, krempelt das den ganzen Workflow vom Prototyp zum MVP komplett um. Das ist nicht nur schneller, das macht Software-Entwicklung viel zugänglicher.
Die Multimodalität ist dann das Sahnehäubchen. Besseres Verständnis von Video und vor allem das räumliche Denken (Spatial Reasoning) sind riesig für Robotik und XR – Bereiche, die bisher oft zu kurz kamen. Dass das Modell in der Visual Computer Demo nicht nur sieht, was auf dem Screen ist, sondern auch Intentionen versteht, ist definitiv die Zukunft.
Ich kann es kaum erwarten, mit der API und dem AI Studio loszulegen. Die granulare Kontrolle über Dinge wie 'Thinking Level' ist genau das, was wir für Production-Apps brauchen. Das ist keine bloße Text-KI mehr, das ist ein ganzes Ökosystem.
Hut ab an das Google-Team! Ihr habt die Messlatte verdammt hoch gelegt. Let’s build the future!