Google a anunțat că în aplicația vizuală de căutare Lens va fi adăugată posibilitatea de a pune și text, iar userii vor putea adresa căutări legate de ce văd. Un exemplu oferit este dacă ți se strică o piesă de la bicicletă și nu știi cum se numește: faci o fotografie și poți afla direct cum se poate face reparația. Totul se leagă de tehnologia de “machine learning” numită Multitask Unified Model (MUM) dezvoltată de Google.
Au fost date și exemple despre cum va putea fi utilizată tehnologia în Lerns.
De exemplu, vezi pe Google Search un tricou care îți place și mergi la aplicația Lens unde poți cere să ți se caute unde se pot găsi șosete cu model similar cu cel de pe tricou.
Un alt exemplu: dacă ți se strică o piesă de la bicicletă și nu știi cum se numește acea piesă, faci o fotografie și poți afla direct cum se poate face reparația, scriind pe Lens: “cum se repară asta”. Ideea ar fi, dacă tehnologia va funcționa bine, să nu mai fie nevoie să iei “la mână” diverse manuale de reparații de biciclete, ci să fii direcționat rapid la un răspuns relevant.
Google speră că tot mai mulți useri vor deschide și vor folosi apoi constant aplicația Lens și că vor porni de la ea căutări pe care acum le pornesc, spre exemplu, pe Amazon sau pe eBay.
Cuvântul de bază pentru viitorul căutărilor online este pentru Google: context.
Compania speră că dacă va propune aceste noi moduri de căutare, cu mai multe detalii, userii vor pune și ei întrebări mai detaliate și bogate în context, iar experiența generală de căutare va deveni tot mai bună în acest mod.
Cum spunea un director al companiei: “căutarea online nu este o problemă rezolvată”. Și chiar nu este: vor mai trece ani până când căutările contextuale vor funcționa extrem de bine, la fel cum și Google Translate nu era o aplicație foarte bună imediat după lansare, dar a fost apoi îmbunătățită masiv.
Surse: TechCrunc, The Verge, Hotnews
Input your search keywords and press Enter.