På den pågående Mobile World Congress (MWC) 2025 i Barcelona visade Google upp några nya funktioner för sin AI-assistent Gemini. Med Screenshare kan du dela din smartphoneskärm med assistenten och ställa frågor baserat på sammanhanget i det den ser.
Google demonstrerade funktionen med en video som visar en användare som delar sin skärm med Gemini och ber den om klädidéer baserat på bilden av ett par jeans på en webbsida. Det är inte helt ny mark för Google. Lens kan identifiera saker baserat på vad du markerar på skärmen, men att para ihop det med en AI-röstassistent som du håller naturliga konversationer verkar vara det logiska steget framåt.
Det skär ut monotoni och automatiserar det mesta av arbetet för dig. Det tar också Gemini ett steg närmare ChatGPT, som är multimodal och stöder olika ingångar, allt från bilder till video. ChatGPT kan också göra videoanalys i realtid i avancerat röstläge, och Google har lagt märke till det.
Den andra nya funktionen, som visades upp som en del av Gemini Live, gör det möjligt för assistenten att bearbeta och analysera livevideo via telefonens kamera.
Topp 10...
» Topp 10: Bästa bärbara allround/multimediadatorerna
» Topp 10: Bästa bärbara speldatorerna
» Topp 10: Bärbara budget/kontorsdatorer
» Topp 10: Bästa bärbara kontors/premiumdatorerna
» Topp 10: Bärbara arbetsstationer
» Topp 10: De bästa små/kompakta bärbara datorerna
» Topp 10: Bästa ultrabooks
» Topp 10: Bästa hybriddatorerna
» Topp 10: Bästa surfplattorna
» Topp 10: Marknadens bästa smartphones
Exempelvideon visar en användare som startar kameran för att visa Gemini en vas och be den om förslag på färg.
Dessa funktioner kommer snart att släppas till Google One AI Premium plan abonnenter. Planen inkluderar också tillgång till Gemini Advanced och 2 TB molnlagring.